Array
(
    [0] => stdClass Object
        (
            [journal] => stdClass Object
                (
                    [id_jnl] => 16
                )

        )

    [1] => stdClass Object
        (
            [section] => stdClass Object
                (
                    [section] => 7
                )

        )

    [2] => stdClass Object
        (
            [title] => Array
                (
                    [0] => LIRA — Intermodal Language For Affective Recognition: a multimodal database for music emotion recognition@en
                    [1] => LIRA – Linguagem Intermodal de Reconhecimento Afetivo: uma base de dados multimodal para reconhecimento de emoções musicais@pt
                )

        )

    [3] => stdClass Object
        (
            [abstract] => Array
                (
                    [0] => Objective: this paper presents LIRA — Intermodal Language for Affective Recognition, a multimodal dataset designed to advance research in music emotion recognition. It addresses limitations in existing databases by providing rich emotional annotations alongside diverse feature representations across five modalities.
Method: LIRA contains 1,412 thirty-second song segments, each labeled with one of four discrete emotions: joy, anger/fear, serenity, or sadness. The dataset encompasses five modalities: audio, chords, lyrics, symbolic features, and voice. Feature extraction was performed using tools including Librosa, Essentia, music21, and Spleeter.
Results: a total of 171 features were extracted: 67 from audio, 58 from voice, 25 from chords, 12 symbolic, and 9 from lyrics. Emotional and structural data are systematically organized in a reusable format. All data and processing scripts are publicly accessible via Mendeley Data and GitHub.
Conclusions: LIRA is a publicly available, multimodal, affectively annotated database that fosters robust and reproducible research in music emotion recognition. Its multimodality and standardized structure enable comprehensive exploration of emotional responses to music and support the development of more expressive computational models.@en
                    [1] => Objetivo: este artigo apresenta a LIRA - Linguagem Intermodal de Reconhecimento Afetivo, uma base de dados multimodal desenvolvida para apoiar pesquisas em reconhecimento de emoções musicais. A LIRA preenche lacunas de bases existentes ao oferecer anotações emocionais e representações ricas em cinco modalidades.
Método: a base é composta por 1.412 segmentos de 30 segundos de músicas, cada um rotulado com uma das quatro emoções discretas: alegria, raiva/medo, serenidade ou tristeza. A LIRA inclui cinco modalidades: áudio, acordes, letras, atributos simbólicos e voz. A extração das características foi realizada com ferramentas como Librosa, Essentia, music21 e Spleeter.
Resultados: foram extraídas 171 características no total: 67 do áudio, 58 da voz, 25 dos acordes, 12 simbólicas e 9 das letras. Os dados emocionais e estruturais estão organizados em formato reutilizável. Todo o material e os scripts estão disponíveis publicamente no Mendeley Data e GitHub.
Conclusões: a LIRA é uma base de dados multimodal e anotada afetivamente, disponível publicamente, que favorece pesquisas robustas e reprodutíveis em reconhecimento de emoções musicais. Sua diversidade modal e formato padronizado permitem uma exploração aprofundada das respostas emocionais à música e apoiam o desenvolvimento de modelos computacionais mais expressivos.@pt
                )

        )

    [4] => stdClass Object
        (
            [author] => Array
                (
                    [0] => Paulo Sergio da Conceição Moreira
                    [1] => Denise Fukumi Tsunoda
                    [2] => Marília Nunes-Silva
                )

        )

    [5] => stdClass Object
        (
            [subject] => Array
                (
                    [0] => Database@en
                    [1] => Multimodal@en
                    [2] => Music emotion recognition@en
                    [3] => Music feature extraction@en
                    [4] => Information retrieval@en
                    [5] => Banco de dados@pt
                    [6] => Multimodal@pt
                    [7] => Reconhecimento de emoã§ãµes musicais@pt
                    [8] => Extraã§ã£o de caracterã­sticas musicais@pt
                    [9] => Recuperaã§ã£o da informaã§ã£o@pt
                )

        )

    [6] => stdClass Object
        (
            [source] => stdClass Object
                (
                    [vol] => 31
                    [nr] => na urg
                    [year] => 2026
                    [theme] => 
                )

        )

    [7] => stdClass Object
        (
            [datePub] => Array
                (
                    [0] => 2025-10-29
                )

        )

    [8] => stdClass Object
        (
            [DOI] => Array
                (
                    [0] => stdClass Object
                        (
                            [type] => DOI
                            [value] => Array
                                (
                                    [0] => 10.5007/1518-2924.2026.e107990
                                )

                        )

                )

        )

    [9] => stdClass Object
        (
            [http] => Array
                (
                    [0] => stdClass Object
                        (
                            [type] => HTTP
                            [value] => Array
                                (
                                    [0] => https://periodicos.ufsc.br/index.php/eb/article/view/107990
                                )

                        )

                    [1] => stdClass Object
                        (
                            [type] => HTTP
                            [value] => Array
                                (
                                    [0] => https://periodicos.ufsc.br/index.php/eb/article/view/107990/60626
                                )

                        )

                    [2] => stdClass Object
                        (
                            [type] => HTTP
                            [value] => Array
                                (
                                    [0] => https://periodicos.ufsc.br/index.php/eb/article/view/107990/60581
                                )

                        )

                    [3] => stdClass Object
                        (
                            [type] => HTTP
                            [value] => Array
                                (
                                    [0] => https://periodicos.ufsc.br/index.php/eb/article/view/107990/60684
                                )

                        )

                    [4] => stdClass Object
                        (
                            [type] => HTTP
                            [value] => Array
                                (
                                    [0] => https://periodicos.ufsc.br/index.php/eb/article/view/107990/60627
                                )

                        )

                )

        )

    [10] => stdClass Object
        (
            [language] => Array
                (
                    [0] => en
                    [1] => pt
                )

        )

    [11] => stdClass Object
        (
            [license] => Array
                (
                    [0] => Copr
                    [1] => CCBY4.0
                )

        )

)