Array
(
    [0] => stdClass Object
        (
            [journal] => stdClass Object
                (
                    [id_jnl] => 60
                )

        )

    [1] => stdClass Object
        (
            [section] => stdClass Object
                (
                    [section] => 467
                )

        )

    [2] => stdClass Object
        (
            [title] => Array
                (
                    [0] => Using sentiment analysis to differentiate bots and humans in the dissemination of scientific publications on COVID-19 on social media X: a study with ChatGPT 3.5 and Gemini 1.5 Flash@en
                    [1] => Usando análisis de sentimientos para diferenciar bots y humanos en la difusión de publicaciones científicas sobre COVID-19 en la red social X: un estudio con ChatGPT 3.5 y Gemini 1.5 Flash@es
                    [2] => Usando análise de sentimentos para diferenciar bots e humanos na divulgação de publicações científicas sobre COVID-19 na mídia social X: um estudo com ChatGPT 3.5 e Gemini 1.5 Flash@pt
                )

        )

    [3] => stdClass Object
        (
            [abstract] => Array
                (
                    [0] => Objective. This study aims to investigate the application of sentiment analysis to differentiate between automated accounts (bots) and human users in the dissemination of scientific publications about COVID-19 on the social network X. To achieve this, the research compares the effectiveness of Large Language Model (LLM) tools, specifically ChatGPT 3.5 and Gemini 1.5 Flash, in classifying the sentiment polarity expressed in posts about a scientific article. The study seeks to understand the performance differences between these tools, evaluate their effectiveness in polarity classification, and identify sentiment patterns that best distinguish bots from human users in the context of scientific dissemination. Method. This study begins with the collection of a sample of posts from X that mentioned the analyzed publication. The posts were collected using Python 3.12 and the Beautiful Soup 4.12 library within the Google Colab environment, resulting in a dataset of 9,792 posts and 5,601 unique profiles.  In the second stage, these profiles were compared to a previously classified dataset of bots and human users. To enhance classification reliability, a subsequent manual reclassification was performed on 41 accounts that had posted more than four times (third stage), identifying 20 as bots and 21 as human users. These accounts generated a total of 3,493 posts, which were then subjected to sentiment polarity classification (fourth stage) using ChatGPT 3.5 and Gemini 1.5 Flash. The classification followed a standardized prompt to categorize sentiments as positive, negative, or neutral and was applied in batches of 100 posts due to token limitations of the tools. In the fifth stage, 315 of the analyzed posts was manually classified for validation. Results. The analysis of 3,493 posts about the scientific article on X revealed a predominance of negative sentiments (92.3%), with neutral posts (6.2%) and positive ones (0.6%) being less frequent (0.9% were unidentified). The AI tools ChatGPT 3.5 and Gemini 1.5 Flash showed similar performance in classifying negative sentiments, but discrepancies emerged in 315 posts, with ChatGPT achieving 85% accuracy in posts that Gemini failed to classify. Bots exhibited greater emotional variability and were more critical of scientific dissemination, whereas human posts tended to be more neutral and consistent, highlighting relevant differences for bot detection. Conclusions. Sentiment analysis performed by ChatGPT and Gemini highlights the capability of these tools to classify social media posts related to scientific articles, revealing distinct patterns between bots and human accounts. Bots tend to generate more polarized and predominantly negative content, while humans exhibit a greater diversity of sentiments, with a balance between negative, neutral, and some positive posts. Although ChatGPT proved to be more effective in scenarios with limited contextual data or metadata to accurately assess a text’s emotional polarity, the study suggests that a more comprehensive analysis is needed to refine these tools and deepen the understanding of interactions between human and bot accounts.@en
                    [1] => Objetivo. Este estudio tiene como objetivo investigar la aplicación del análisis de sentimientos para diferenciar entre cuentas automatizadas (bots) y usuarios humanos en la difusión de publicaciones científicas sobre COVID-19 en la red social X. Para ello, la investigación compara la eficacia de las herramientas de Modelos de Lenguaje de Gran Escala (LLMs), específicamente ChatGPT 3.5 y Gemini 1.5 Flash, en la clasificación de los sentimientos expresados en publicaciones sobre un artículo científico. El estudio busca comprender las diferencias de rendimiento entre estas herramientas, evaluar su eficacia en la clasificación de polaridades y identificar patrones de sentimientos que mejor distingan a los bots de los usuarios humanos en el contexto de la divulgación científica. Método. Este estudio comienza con la recopilación de una muestra de publicaciones en X que mencionaron la publicación analizada. Los posts fueron recolectados utilizando Python 3.12 y la biblioteca Beautiful Soup 4.12 en el entorno de Google Colab, lo que resultó en un conjunto de 9.792 publicaciones y 5.601 perfiles únicos. En una segunda etapa, estos perfiles fueron comparados con un conjunto de datos previamente clasificado como bot o humano. Para mejorar la confiabilidad de la clasificación, posteriormente se realizó una reclasificación manual de 41 cuentas que habían realizado más de cuatro publicaciones (tercera etapa), identificando 20 como bots y 21 como humanas. Estas cuentas generaron un total de 3.493 publicaciones, que fueron sometidas a análisis de sentimientos (cuarta etapa) utilizando las herramientas ChatGPT 3.5 y Gemini 1.5 Flash. La clasificación siguió un prompt estandarizado para categorizar los sentimientos como positivos, negativos o neutros, aplicándose en lotes de 100 publicaciones debido a las limitaciones de tokens de las herramientas. En la quinta etapa, 315 de las publicaciones analizadas fue clasificada manualmente para su validación. Resultados. El análisis de 3.493 publicaciones sobre el artículo científico en X reveló una predominancia de sentimientos negativos (92,3%), con posts neutros (6,2%) y positivos (0,6%), siendo estos últimos menos frecuentes (0,9% no fueron identificados). Las herramientas de inteligencia artificial ChatGPT 3.5 y Gemini 1.5 Flash mostraron desempeños similares al clasificar sentimientos negativos, pero surgieron divergencias en 315 publicaciones, con ChatGPT alcanzando un 85% de precisión en posts que Gemini no logró clasificar. Los bots presentaron una mayor variabilidad emocional y fueron más críticos en relación con la difusión científica, mientras que las publicaciones humanas tendieron a ser más neutras y consistentes, destacando diferencias relevantes para la detección de bots. Conclusiones. El análisis de sentimientos realizado por ChatGPT y Gemini destaca la capacidad de estas herramientas para clasificar publicaciones en redes sociales relacionadas con artículos científicos, revelando patrones distintos entre bots y cuentas humanas. Los bots tienden a generar contenidos más polarizados y predominantemente negativos, mientras que los humanos presentan una mayor diversidad de sentimientos, con un equilibrio entre publicaciones negativas, neutras y algunas positivas. Aunque ChatGPT demostró ser más eficaz en escenarios con pocos datos contextuales o metadatos para evaluar correctamente la polaridad emocional de un texto, el estudio sugiere que es necesaria un análisis más exhaustivo para refinar las herramientas y profundizar en la comprensión de las interacciones entre cuentas humanas y automatizadas.@es
                    [2] => Objetivo. O estudo tem como objetivo investigar a aplicação da análise de sentimentos para diferenciar contas automatizadas (bots) e humanas na divulgação de publicações científicas sobre COVID-19 na rede social X. Para isso, a pesquisa compara a eficácia das ferramentas de Large Language Models (LLMs) ChatGPT 3.5 e Gemini 1.5 Flash na análise de sentimento, através da classificação de polaridade, expressos em postagens sobre um artigo científico. O estudo busca compreender as diferenças de desempenho entre essas ferramentas, avaliar sua eficácia na tarefa de classificação de polaridades e identificar padrões de sentimentos que melhor distinguem bots de usuários humanos no contexto da disseminação científica. Método. Este estudo inicia com a coleta de uma amostra de postagens do X que fizeram menção à publicação estudada. Os posts foram coletados usando Python 3.12, a biblioteca Beautiful Soup 4.12 no ambiente Google Colab, resultando em um conjunto de 9.792 postagens e 5.601 perfis únicos. Em uma segunda etapa, esses perfis foram confrontados com um dataset previamente classificado como bot ou humano. Para aprimorar a confiabilidade da classificação, posteriormente foi realizada uma reclassificação manual de 41 contas que haviam feito mais de quatro postagens (terceira etapa), identificando 20 como bots e 21 como humanas. Essas contas geraram um total de 3.493 postagens, que foram submetidas à classificação de polaridade dos sentimentos (quarta etapa) utilizando as ferramentas ChatGPT 3.5 e Gemini 1.5 Flash. A classificação seguiu um prompt padronizado para categorizar os sentimentos como positivo, negativo ou neutro, sendo aplicada em lotes de 100 postagens devido às limitações de tokens das ferramentas. Na quinta etapa, 315 postagens analisadas foram classificadas manualmente. Resultados. A análise de 3.493 postagens sobre o artigo científico no X revelou uma predominância de sentimentos negativos (92,3%), com posts neutros (6,2%) e positivos (0,6%) sendo menos frequentes (0,9 não foram identificados). As ferramentas de inteligência artificial ChatGPT 3.5 e Gemini 1.5 Flash mostraram desempenhos semelhantes ao classificar sentimentos negativos, mas divergências surgiram em 315 postagens, com ChatGPT atingindo 85% de precisão em posts que o Gemini não conseguiu classificar. Bots apresentaram uma maior variabilidade emocional e foram mais críticos em relação à divulgação científica, enquanto as postagens humanas tenderam a ser mais neutras e consistentes, destacando diferenças relevantes para a detecção de bots. Conclusões. A análise de sentimentos realizada por ChatGPT e Gemini destaca a capacidade dessas ferramentas de classificar postagens em redes sociais relacionadas a artigos científicos, revelando padrões distintos entre bots e contas humanas. Os bots tendem a gerar conteúdos mais polarizados e predominantemente negativos, enquanto os humanos apresentam uma diversidade maior de sentimentos, com um equilíbrio entre postagens negativas, neutras e algumas positivas. Embora o ChatGPT tenha se mostrado mais eficaz em cenários com poucos dados contextuais ou metadados para avaliar corretamente a polaridade emocional de um texto, o estudo sugere que uma análise mais abrangente é necessária para refinar as ferramentas e aprofundar a compreensão das interações entre contas humanas e contas robotizadas.@pt
                )

        )

    [4] => stdClass Object
        (
            [author] => Array
                (
                    [0] => Danielle Pompeu Noronha Pontes
                    [1] => João de Melo Maricato
                )

        )

    [5] => stdClass Object
        (
            [subject] => Array
                (
                    [0] => Sentiment analysis@en
                    [1] => Chatgpt@en
                    [2] => Gemini@en
                    [3] => X (twitter)@en
                    [4] => Bots@en
                    [5] => Análisis de sentimientos@es
                    [6] => Chatgpt@es
                    [7] => Gemini@es
                    [8] => X (twitter)@es
                    [9] => Bots@es
                    [10] => Análise de sentimentos@pt
                    [11] => Chatgpt@pt
                    [12] => Gemini@pt
                    [13] => X (twitter)@pt
                    [14] => Bots@pt
                )

        )

    [6] => stdClass Object
        (
            [source] => stdClass Object
                (
                    [vol] => 
                    [nr] => esp.
                    [year] => 2025
                    [theme] => 
                )

        )

    [7] => stdClass Object
        (
            [datePub] => Array
                (
                    [0] => 2025-07-03
                )

        )

    [8] => stdClass Object
        (
            [DOI] => Array
                (
                    [0] => stdClass Object
                        (
                            [type] => DOI
                            [value] => Array
                                (
                                    [0] => 10.5195/biblios.2025.1297
                                )

                        )

                )

        )

    [9] => stdClass Object
        (
            [http] => Array
                (
                    [0] => stdClass Object
                        (
                            [type] => HTTP
                            [value] => Array
                                (
                                    [0] => https://biblios.pitt.edu/ojs/biblios/article/view/1297
                                )

                        )

                    [1] => stdClass Object
                        (
                            [type] => HTTP
                            [value] => Array
                                (
                                    [0] => https://biblios.pitt.edu/ojs/biblios/article/view/1297/517
                                )

                        )

                )

        )

    [10] => stdClass Object
        (
            [language] => Array
                (
                    [0] => pt
                )

        )

    [11] => stdClass Object
        (
            [license] => Array
                (
                    [0] => RESERVED
                    [1] => http://creativecommons.org/licenses/by/4.0
                )

        )

)