Görüşler

Yapay zekâ destekli büyük dil modellerinin (LLM) üniversite eğitimine etkileri: Sorunlar, fırsatlar ve politika önerileri

Yapay zekâ destekli büyük dil modellerinin (LLM) üniversite eğitimine etkileri: Sorunlar, fırsatlar ve politika önerileri

Prof. Dr. Yusuf Ziya Özcan, yapay zekânın akademik eğitim üzerindeki etkilerini analiz etti. Yeni teknoloji sistemlerinin eğitim sisteminin özünü oluşturan yaratıcılık, eleştirel düşünme ve özgün üretim gibi değerleri de tehdit ettiğini belirten Özcan ‘Üniversitelerin görevi, yapay zekâyı yasaklamak değil; insan aklıyla birlikte çalışan, onu destekleyen bir ortak hâline getirmektir’ diyor.

ChatGPT, Gemini, Claude ve Copilot gibi büyük dil modellerinin (Large Language Models – LLM) yükselişi, üniversite eğitiminde köklü bir paradigma değişimini beraberinde getirmiştir. İnsan dilinin geniş veri kümeleri üzerinde eğitilmesiyle ortaya çıkan bu sistemler, yazma, özetleme, çeviri, problem çözme ve fikir üretimi gibi akademik görevlerde insan benzeri bir üretkenlik sunmaktadır. Bu özellikleriyle LLM’ler, bilgiye erişimi demokratikleştiren ve öğrenmeyi hızlandıran araçlar olarak değerlendirilmektedir.

Ne var ki bu gelişmeler eğitim sisteminin özünü oluşturan yaratıcılık, eleştirel düşünme ve özgün üretim gibi değerleri de tehdit etmektedir. ABD ve Avrupa’daki pek çok üniversitede öğrencilerin ödev ve makalelerini ChatGPT aracılığıyla hazırladığı tespit edilmiş, bu da akademik dürüstlük konusundaki kaygıları derinleştirmiştir (Markoff, 2024). Benzer endişeler Türkiye’de de paylaşılmaktadır. Yükseköğretim Kurulu’nun 2024 tarihli Üretken Yapay Zekâ Kullanımına Dair Etik Rehberi, yapay zekânın akademik üretimdeki etik sınırlarını belirlemeyi ve bu konuda kurumsal farkındalık geliştirmeyi amaçlamaktadır (YÖK, 2024). Dolayısıyla temel mesele, bu araçların kullanılıp kullanılmayacağı değil; nasıl, hangi etik ve pedagojik ilkeler çerçevesinde kullanılacağıdır. Bu makale, LLM’lerin yükseköğretim sisteminde yarattığı sorunları, sunduğu fırsatları ve bu araçları insan odaklı bir öğrenme ortamına entegre etmek için gerekli politika önerilerini detaylıca ele almaktadır.

LLM’LERİN ÜNİVERSİTE EĞİTİMİNDE YARATTIĞI SORUNLAR

Büyük dil modellerinin eğitim süreçlerine hızla girmesi, öğrenci merkezli öğrenme kavramının yeniden tartışılmasına yol açmıştır. Öğrenciler, kendi düşüncelerini geliştirmek yerine yapay zekâdan hazır metin talep ettiklerinde, düşünsel derinlik ve yaratıcılık kaybolmakta, öğrenme süreci mekanik bir üretime dönüşmektedir. Eti’nin (2025) Türkiye’de yaptığı araştırma, öğrencilerin önemli bir kısmının ChatGPT’yi “zaman kazandırıcı” fakat “yaratıcı düşünmeyi sınırlayıcı” bir araç olarak gördüklerini ortaya koymuştur. Bu bulgu, uluslararası çalışmalarla da paralellik göstermektedir: Nature (2025) meta-analizine göre LLM’ler genel öğrenme performansını artırsa da üst düzey bilişsel beceriler üzerinde sınırlı etkiye sahiptir. Bu durum, problem çözme ve sentezleme gibi kritik becerilerin erozyona uğraması riskini beraberinde getirmektedir.

Akademik dürüstlük açısından da benzer bir tehlike söz konusudur. The Guardian’ın (2024) yayımladığı bir çalışmada, öğretim elemanları yapay zekâ tarafından yazılmış 33 sınav yanıtından yalnızca birini tespit edebilmiştir. Bu durum, ölçme-değerlendirme sistemlerinin güvenilirliğini zayıflatmakta ve “öğrenci mi, algoritma mı üretti?” sorusunu gündeme getirmektedir. Türkiye’de de bazı üniversiteler bu riski fark ederek politika geliştirmeye başlamıştır. Örneğin Yeditepe Üniversitesi’nin 2025 tarihli Akademik Dürüstlük ve Yapay Zekâ Politikası, öğrencilerin yapay zekâdan yararlandıkları takdirde bunu beyan etmelerini zorunlu kılmaktadır. Bu tespit zorluğu, geleneksel ödev ve sınav formatlarının kökten değişmesi gerektiği yönündeki baskıyı artırmaktadır.

Yapay zekâ metinlerinin akıcı dili, içerik doğruluğuna dair bir “güven yanılsaması” yaratmaktadır. Time dergisinin (2024) haberine göre, ChatGPT’nin oluşturduğu bazı akademik metinlerde “var olmayan kaynaklara” atıf yapılmıştır. Bu tür hatalar, öğrencinin eleştirel düşünme becerisini devre dışı bırakmakta, bilgiyi doğrulama refleksini zayıflatmaktadır. Akşab ve Seggie (2024) bu durumu “akademik yüzeyselleşme” olarak tanımlar ve yapay zekâya aşırı güvenin öğrenme sürecini edilgenleştirdiğini vurgular.

Kısacası, yapay zekâ teknolojileri doğru pedagojik rehberlik olmadan kullanıldığında, öğrenciyi üretken bir özne olmaktan çıkararak bilgi tüketicisine dönüştürmektedir. Bu ise üniversite eğitiminin temel hedefi olan “eleştirel, bağımsız ve yaratıcı düşünme” yetisini zayıflatır.

LLM’LERİN EĞİTİMDE YARATTIĞI FIRSATLAR

Öte yandan, bu teknolojilerin sağladığı fırsatları da göz ardı etmek mümkün değildir. Yapay zekâ destekli araçlar, öğrenmeyi kişiselleştirme potansiyeline sahiptir. Öğrenciler, kendi bilgi düzeylerine uygun örnekler, açıklamalar veya özetler aracılığıyla konuları daha derinlemesine kavrayabilir. Bu durum özellikle dil engeli yaşayan öğrenciler için önemlidir; ChatGPT benzeri araçlar, yazma ve dilbilgisi becerilerinin geliştirilmesinde etkili destek sunmaktadır (APA Blog, 2024).

Türkiye’de yapılan bazı çalışmalar da bu yönde umut verici bulgular ortaya koymuştur. Eti (2025), yapay zekâ araçlarının “akademik yazma kaygısını azalttığını” ve “özgüveni artırdığını” rapor ederken, Güler, Gülşenoğlu ve Sayılır (2025) akademik yazmada kullanılabilecek yapay zekâ araçlarını sınıflandırarak bu teknolojilerin doğru yönlendirme ile eğitimde faydalı olabileceğini belirtmiştir. Bu araçlar, özellikle ilk taslak oluşturma ve fikir fırtınası aşamalarında öğrencilerin başlangıç engellerini aşmasına yardımcı olabilmektedir.

Yapay zekâ aynı zamanda öğretim üyeleri ve akademik araştırmacılar açısından da önemli bir verimlilik artışı sağlamaktadır. Ders materyali üretimi, quiz hazırlığı veya metin sadeleştirme gibi rutin işler, LLM’ler sayesinde kolaylaşmakta; bu da akademisyenlerin pedagojik yeniliklere daha fazla zaman ayırmasına olanak vermektedir (Kasneci vd., 2023). Dahası, LLM’ler akademik araştırma süreçlerinde de bir asistan rolü üstlenebilir. Literatür taraması özetleri, hipotez geliştirme aşaması için çeşitli bakış açılarının hızlıca sentezlenmesi, hatta büyük veri setlerinin analizi için gerekli kod yazımında hızlı prototip oluşturma gibi görevler, bilimsel üretkenliği artırma potansiyeline sahiptir. Dolayısıyla, yapay zekâyı bütünüyle tehdit olarak görmek yerine, onu eğitimin “yardımcı bileşeni ve araştırma ortağı” olarak konumlandırmak daha gerçekçi bir yaklaşımdır.

ETİK, PEDAGOJİK VE KURUMSAL ÇÖZÜM ÖNERİLERİ

Yapay zekânın yükseköğretim sistemine kalıcı biçimde yerleştiği artık tartışmasız bir gerçektir. Bu durum, üniversiteleri hem etik hem de kurumsal düzeyde yeni düzenlemeler yapmaya zorlamaktadır. İlk olarak, açık ve tutarlı yapay zekâ politikaları geliştirilmelidir. Bu konuda Yükseköğretim Kurulu’nun 2024 tarihli etik rehberi önemli bir başlangıçtır; ancak rehberin üniversiteler düzeyinde içselleştirilmesi ve uygulanabilir yönergelere dönüşmesi gerekmektedir (YÖK, 2024).

Bu politikaların temelinde “yasaklama” değil, “sorumlu ve etik kullanım” anlayışı yer almalıdır. Bu etik çerçeve, yalnızca intihal riskini değil, aynı zamanda öğrenci ve araştırma verilerinin uluslararası ticari LLM sağlayıcılarına aktarılmasıyla ortaya çıkan gizlilik ve güvenlik risklerini de kapsamalıdır. Kurumlar, özellikle hassas verilerin işlenmesi söz konusu olduğunda, bu araçların kullanımına net sınırlar koymalıdır. UNESCO (2023) raporu da, yapay zekâ etiğinin eğitim müfredatlarına entegre edilmesi gerektiğini vurgular. Öğrenciler yalnızca bu araçları nasıl kullanacaklarını değil, aynı zamanda neden ve ne zaman kullanmamaları gerektiğini de öğrenmelidir.

Pedagojik düzeyde ise yapay zekâ, yasaklanacak bir unsur olmaktan çıkarılıp öğrenmenin bir parçası hâline getirilmelidir. Öğrencilerin ChatGPT gibi araçlarla üretilen metinleri analiz ederek hatalarını bulmaları, hem eleştirel düşünmeyi hem de etik farkındalığı artırır. Bu yaklaşım, Akşab ve Seggie’nin (2024) de belirttiği gibi, “yapay zekâyı rakip değil, öğretim partneri olarak yeniden konumlandırma” fikrine karşılık gelir. Bu, LLM’lerin ‘nihai ürün’ üretmek yerine, ‘taslak’ ve ‘süreç’ aşamalarında destekleyici bir rol üstlenmesi anlamına gelmektedir.

Değerlendirme sistemleri de bu dönüşüme ayak uydurmalıdır. Eaton (2024), yapay zekâ çağında “ürün odaklı” ölçme anlayışının yerini “süreç temelli ve otantik” değerlendirmeye bırakması gerektiğini savunur. Bu bağlamda, öğrencilerden sözlü sunumlar, canlı tartışmalar, süreç dosyaları veya ödev taslaklarını aşamalı olarak teslim etmeleri istenebilir. Türkiye’de bu yönde bazı uygulamalar başlamış, örneğin bazı üniversiteler öğrencilerden ödev taslaklarını ve düzeltme notlarını teslim etmelerini istemeye başlamıştır.

Bu dönüşümün başarısı büyük ölçüde öğretim üyelerinin dijital yetkinliklerine bağlıdır. EDUCAUSE (2024) verilerine göre, akademisyenlerin yalnızca %38’i bu konuda yeterli hissetmektedir. Dolayısıyla, üniversiteler “Yapay Zekâ Pedagojisi” konulu hizmet içi eğitimler düzenlemeli, öğretim elemanlarını bu dönüşüme hazırlamalıdır.

Son olarak teknolojik doğrulama mekanizmaları da destekleyici bir unsur olmalıdır. Turnitin, GPTZero gibi tespit araçları kusursuz olmasa da etik beyan sistemiyle birlikte uygulandığında etkili bir denetim sağlar (OpenAI, 2023). Uzun vadede, yapay zekâ metinlerine dijital su işareti (watermark) eklenmesini öngören sistemler bu süreci daha güvenilir hâle getirecektir (OpenAI, 2024). Ayrıca, üniversiteler kendi açık kaynaklı, Türkçe veriyle eğitilmiş yerel modellerini geliştirerek hem veri gizliliğini koruyabilir hem de akademik bağımsızlıklarını güçlendirebilir, böylece uluslararası platformlara bağımlılığı azaltabilirler.

SONUÇ: İNSAN VE YAPAY ZEKÂ ARASINDA YENİ BİR AKADEMİK ORTAKLIK

Yapay zekâ destekli büyük dil modelleri, üniversite eğitimi için kaçınılmaz bir realite olup, temel ayrım ‘kullanıp kullanmamakta’ değil, ‘sorumlu ve pedagojik olarak zenginleştirici bir şekilde yönetip yönetmemekte’ yatmaktadır. Bu teknolojiler, yönetişim ve etik ilkelerle desteklenmediği sürece, özgün düşünme ve akademik dürüstlük kültürünü zedeleme potansiyeline sahiptir. Fakat doğru çerçeveyle kullanıldığında, öğrenmeyi hızlandıran, bilgiye erişimi kolaylaştıran ve yaratıcılığı teşvik eden bir araca dönüşebilir.

Üniversitelerin görevi, yapay zekâyı yasaklamak değil; insan aklıyla birlikte çalışan, onu destekleyen bir ortak hâline getirmektir. YÖK’ün (2024) etik rehberi, bu yolda önemli bir ilk adımdır. Bundan sonrası, kurumların ve bireylerin etik olgunluğuna, dijital farkındalığına ve pedagojik yaratıcılığına bağlıdır. Eğer bu dönüşüm bilinçli biçimde yönetilirse, yapay zekâ insan zekâsının yerini değil, ona eşlik eden yaratıcı bir gücü temsil edecektir. Bu da 21. yüzyılın üniversiteleri için yeni bir entelektüel ortaklık döneminin başlangıcı anlamına gelir.

KAYNAKÇA

Akşab, M. & Seggie, F. N. (2024). Yükseköğretimde Yapay Zekâ: Öğretim, Araştırma ve Topluma Hizmet Açısından Bakış. Eğitimde Kuram ve Uygulama Dergisi, 20(2), 135–158.
Dawson, P. (2024). Generative AI and the Ethics of Academic Integrity. Journal of Academic Ethics, 22(3), 411–429.
Eaton, S. (2024). Authentic Assessment in the Age of AI: From Product to Process. International Review of Education, 70(2), 145–166.
EDUCAUSE. (2024). Faculty Preparedness for Generative AI Integration. Washington, DC.
Eti, H. S. (2025). Yükseköğretimde Yapay Zekâ: Öğrenci Tutumları ve Akademisyen Görüşleri. İktisadi, İdari ve Siyasal Araştırmalar Dergisi, 10(26), 132–153.
Floridi, L. & Chiriatti, M. (2020). GPT-3: Its Nature, Scope, Limits, and Consequences. Minds and Machines, 30(4), 681–694.
Güler, E., Gülşenoğlu, B., & Sayılır, A. (2025). Akademik Yazmada Kullanılabilecek Yapay Zekâ Araçlarının Sınıflandırılması. Yükseköğretim ve Bilim Dergisi, 15(1), 47–68.
Huang, Y. (2024). AI Declarations in Academic Submissions: A New Paradigm for Transparency. Higher Education Policy Review, 37(1), 52–73.
Kasneci, E. vd. (2023). ChatGPT for Good? On Opportunities and Challenges of Large Language Models for Education. Learning and Individual Differences, 103, 102274.
Markoff, M. (2024). Academic Integrity in the Age of Generative AI. The Chronicle of Higher Education, 7 Mart 2024.
OpenAI. (2023). AI Text Classifier: Limitations and Future Directions.
OpenAI. (2024). Provenance and Watermarking for Responsible AI Use.
UNESCO. (2023). Guidelines for the Ethical Use of Artificial Intelligence in Education. Paris.
Yeditepe Üniversitesi (2025). Akademik Dürüstlük ve Yapay Zekâ Politikası.
Yükseköğretim Kurulu (YÖK). (2024). Yükseköğretim Kurumları Bilimsel Araştırma ve Yayın Faaliyetlerinde Üretken Yapay Zekâ Kullanımına Dair Etik Rehber. Ankara: YÖK Yayınları.

YORUMLAR (5)
5 Yorum
YORUM YAZ
İÇERİK VE ONAY KURALLARI: KARAR Gazetesi yorum sütunları ifade hürriyetinin kullanımı için vardır. Sayfalarımız, temel insan haklarına, hukuka, inanca ve farklı fikirlere saygı temelinde ve demokratik değerler çerçevesinde yazılan yorumlara açıktır. Yorumların içerik ve imla kalitesi gazete kadar okurların da sorumluluğundadır. Hakaret, küfür, rencide edici cümleler veya imalar, imla kuralları ile yazılmamış, Türkçe karakter kullanılmayan ve büyük harflerle yazılmış yorumlar içeriğine bakılmaksızın onaylanmamaktadır. Özensizce belirlenmiş kullanıcı adlarıyla gönderilen veya haber ve yazının bağlamının dışında yazılan yorumlar da içeriğine bakılmaksızın onaylanmamaktadır.
Bunlar da İlginizi Çekebilir