Kriz Haberciliğinde Üretken Yapay Zekâ: ChatGPT ve Gemini Haber Metinlerinin Karşılaştırmalı Analizi

Yıl/Year: 2025• Cilt/Vol: 8 • Sayı/Num:15 • Güz/Autumn

Kriz Haberciliğinde Üretken Yapay Zekâ: ChatGPT ve Gemini Haber Metinlerinin Karşılaştırmalı Analizi

Generative Artificial Intelligence in Crisis Journalism: A Comparative Analysis of ChatGPT and Gemini News Texts

Öz/Abstract

Üretken yapay zekâ sistemlerinin yaygınlaşması, dijital gazetecilik alanında özellikle de haber üretim süreçlerinde gazetecilik normlarının söz konusu sistemler tarafından nasıl yeniden üretildiği sorusunu gündeme getirmiştir. Özellikle kriz ve afet haberleri gibi hassas içeriklere sahip, yüksek belirsizlik içeren bağlamlarda yapay zekânın üretken dil modellerinin; doğrulama, nesnellik ve etik sorumluluk gibi gazetecilik alanının temel ilkelerine nasıl yaklaştığı önemli bir araştırma konusu haline gelmiştir. Bu çalışma, aynı afet senaryosu üzerinden, iki farklı büyük dil modeli (ChatGPT-4o, Gemini 1.5 Pro) tarafından üretilen haber metinlerini karşılaştırmalı olarak ele almayı amaçlamaktadır. Araştırma tek vaka temelli karşılaştırmalı nitel içerik analizi yöntemiyle yürütülmüştür. Yapılan analiz kapsamında iki modelden elde edilen haber metinleri; dil ve üslup özellikleri, gazetecilik normlarına uyum, yapısal organizasyon ve prompt sadakati kategorileri doğrultusunda kodlanmış ve karşılaştırılmıştır. Elde edilen bulgular, iki modelin de genel bağlamda nesnel ve temkinli bir haber dili kullandığını göstermektedir. ChatGPT geleneksel ajans haberciliğine daha yakın doğrusal bir haber yapısı üretmekte, Gemini ise alt başlıklarla internet haberciliğine daha uyumlu modüler bir haber metni ürettiği tespit edilmiştir. Ayrıca, Gemini’nin haber çıktısında bağlamın sınırlı ölçüde de olsa genişlettiği gözlenmiştir. Çalışma, üretken büyük dil modellerinin afet ve kriz haberciliğinde gazetecilik normlarını yeniden üretme biçimlerinin modele özgü farklılıklar gösterebildiğini ortaya koymaktadır. Ayrıca, yapay zekâ destekli gazeteciliğin geleceğinde insan ile algoritmalar arasındaki iş birliğinin daha belirleyici olacağını göstermektedir. Çalışma, tüm bu bağlamlarda yapay zekâ destekli haber üretimine ilişkin literatüre nitel bir katkı sunmaktadır.

The growing use of generative artificial intelligence systems has raised important questions in digital journalism, particularly regarding how journalistic norms are reproduced by such systems in news production processes. This issue becomes especially significant in crisis and disaster reporting, where uncertainty is high and journalistic principles such as verification, objectivity, and ethical responsibility are critically important. This study aims to comparatively examine news texts generated by two large language models (ChatGPT and Gemini) based on the same disaster scenario. The research employs a single-case comparative qualitative content analysis. Within the scope of the analysis, the news texts produced by both models were coded and compared according to language and tone, adherence to journalistic norms, structural organization, and prompt fidelity. The findings indicate that both models generally adopt a neutral and cautious tone in news reporting. However, notable differences were observed in their textual organization. ChatGPT tends to produce a more linear structure resembling traditional agency journalism, whereas Gemini generates a modular news text organized through subheadings, which is more compatible with online journalism formats. In addition, the Gemini output was observed to expand the given context to a limited extent. Overall, the study suggests that generative large language models may reproduce journalistic norms in crisis and disaster reporting while displaying model-specific patterns in news construction.
The findings also indicate that collaboration between human journalists and algorithmic
systems is likely to become increasingly significant in the future of AI-assisted journalism. In
this respect, the study provides a qualitative contribution to the literature on AI-supported
news production.

Anahtar Kelimeler/Keywords

Yapay Zekâ, Üretken Yapay Zekâ, Otomatik Gazetecilik, Kriz Haberciliği, Büyük Dil Modelleri

Artificial Intelligence, Generative AI, Automated Journalism, Crisis Reporting, Large Language Models.

Kaynakça/References

  • Agbaeze, S. E., Okeke, V. C., Phillips, E. P., Jacobs, A. L., & Oluwakoya, S. T. (2025). Agentic AI in newsrooms: Towards a multi-dimensional framework for evaluating trust, editorial accountability, and workflow quality. World Journal of Advanced Research and Reviews, 28(2), 1061–1080. https://doi.org/10.30574/wjarr.2025.28.2.3766

    Allan, S., & Cottle, S. (2009). Global crisis reporting: Journalism in the global age. Open University Press.

    Anadolu Ajansı Akademi. (t.y.). Medyada yapay zekâ etik kullanım rehberi. https://www. aa.com.tr/tr/haberakademisi/haberler/medyada-yapay-zeka-etik-kullanim-rehberi/533264

    Arshad, W. (2025, December 23). 7 best AI news writing tools for 2025 (tools + playbook). The Rank Masters. https://www.therankmasters.com/blog/best-ai-tools-for-writing-news-articles

    Ay, A. (2022). Yapay Zekâ Haberciliği ve Gazetecilik Tartişmalarina Dair Bir Değerlendirme. The Turkish Online Journal of Design Art and Communication, 12 (4), 913-926.

    Brown, T. B., Mann, B., Ryder, N., Subbiah, M., Kaplan, J., Dhariwal, P., & Amodei, D. (2020). Language models are few-shot learners. Advances in Neural Information Processing Systems, 33, 1877–1901.

    Carlson, M. (2015). The robotic reporter: Automated journalism and the redefinition of labor, compositional forms, and journalistic authority. Digital Journalism, 3(3), 416– 431. https://doi.org/10.1080/21670811.2014.976412

    Danzon-Chambaud, S. (2021). A systematic review of automated journalism scholarship: Guidelines and suggestions for future research. Open Research Europe, 1, Article 4. https://doi.org/10.12688/openreseurope.13096.1

    Diakopoulos, N. (2019). Automating the news: How algorithms are rewriting the media. Harvard University Press.

    Dodds, T., Yeung, W. N., Mellado, C., & de Lima-Santos, M. F. (2024). On controlled change: Generative AI’s impact on professional authority in journalism. arXiv. https://doi. org/10.48550/arXiv.2410.01138

    Gökdemir, A. (2025). Haber ajansları tarafından geliştirilen gazetecilikte yapay zekâ kullanımı standartları. İletişim Kuram ve Araştırma Dergisi, 70, 46–65. https://doi. org/10.47998/ikad.1592394

    Graefe, A. (2016). Guide to automated journalism. Tow Center for Digital Journalism. https://doi.org/10.7916/D80G3S5S

    İrvan, S. (2024, February 28). Gazetecilikte yapay zekâ kullanımı ve etik ilkeler. NewsLabTurkey. https://www.newslabturkey.org/gazetecilikte-yapay-zeka-kullanimi-ve-etik-ilkeler

    Krippendorff, K. (2018). Content analysis: An introduction to its methodology (4th ed.). Sage.

    Lincoln, Y. S., & Guba, E. G. (1985). Naturalistic inquiry. Sage Publications.

    Muñoz-Ortiz, A., Gómez-Rodríguez, C., ve Vilares, D. (2024). Contrasting linguistic patterns in human and LLM-generated news text. Artificial Intelligence Review, 57(265). https://doi.org/10.1007/s10462-024-10903-2

    Nanz, A., Binder, A., ve Matthes, J. (2025). AI in the newsroom: Does the public trust automated journalism and will they pay for it?. Journalism Studies, 26(14), 1745-11

    1764. https://doi.org/10.1080/1461670X.2025.2547301

    Newman, N., Fletcher, R., Robertson, C. T., Arguedas, A. R., & Nielsen, R. K. (2024). Digital News Report 2024. Reuters Institute for the Study of Journalism, University of Oxford. https://doi.org/10.60625/risj-vy6n-4v57

    Schreier, M. (2012). Qualitative content analysis in practice. Sage.

    Shi, Y., & Sun, L. (2024). How generative AI is transforming journalism: Development, application and ethics. Journalism and Media, 5(2), 582–594. https://doi. org/10.3390/journalmedia5020030

    Silver, E. (2025, May 7). Keeping track of AI use cases in the newsroom. Generative AI in the Newsroom. https://medium.com/generative-ai-in-the-newsroom/keeping-track-of-ai-use-cases-in-the-newsroom-1811b8cb606f

    Thurman, N., Dörr, K., & Kunert, J. (2017). When reporters get hands-on with robo-writing. Digital Journalism, 5(10), 1240–1259. https://doi.org/10.1080/21670811.2017.12 89819

    Xu, B., Chen, Y., Wen, Z., Liu, W., & He, B. (2025). Evaluating small language models for news summarization: Implications and factors influencing performance. arXiv. https:// doi.org/10.48550/arXiv.2502.00641

    Zelizer, B. (2015). What journalism could be. Polity Press.

0