Bolehkah sembang AI memisahkan kebenaran daripada pembohongan?

Kemaskini terakhir: 06/11/2025
Pengarang Ishak
  • La AI Generatif Ia meniru dengan realisme yang hebat, tetapi kebenarannya tidak dijamin.
  • Kajian menunjukkan kegagalan dalam membezakan kepercayaan daripada fakta, dengan risiko sosial.
  • Chatbots gagal sebagai pemeriksa fakta dan boleh menguatkan penipuan jika tiada kawalan manusia.

Kecerdasan buatan dan kebenaran

Persoalan besar adalah mudah dan sama sekali tidak remeh: boleh bilik sembang IA Bagaimanakah kita dapat membezakan antara kebenaran dan kebohongan? Dalam beberapa tahun kebelakangan ini, kami telah melihat model perbualan menyusup ke dalam kehidupan seharian kami dengan mudah, mampu menulis esei, pengaturcaraan dan mengekalkan dialog yang tidak dapat dibezakan daripada seseorang. Percambahan ini telah menjana begitu banyak kekaguman sebagai rasa tidak senangKerana alat yang sama yang menyelesaikan tugas untuk kita dengan cepat juga boleh membuat kesilapan, mencipta atau menguatkan penipuan pada kelajuan yang tidak boleh diterima.

Sejak 2022, dengan pembukaan SembangGPT Bagi orang ramai, AI generatif telah mempercepatkan peralihan budaya: kini sesiapa sahaja boleh menghasilkan teks sintetik, imej, suara atau video dengan hasil yang menakjubkan. Pada masa yang sama, keraguan munasabah semakin meningkat: apabila kita membaca artikel, menonton video atau mendengar audio, apakah yang ada di belakangnya—manusia atau algoritma? Dan yang lebih penting, adakah perkara yang didakwa itu benar? Jawapan yang jujur ​​ialah membezakan antara keduanya menjadi semakin sukar, dan itu memerlukan... literasi media, pengesahan, dan pemikiran kritis.

Bagaimana untuk mengesan sama ada video dicipta oleh AI
artikel berkaitan:
Bagaimana untuk mengesan jika video dicipta oleh AI: panduan lengkap

Lonjakan pada tahun 2022 yang mengubah perbualan

Tahun 2022 menandakan titik perubahan: pertama, penjana imej muncul yang boleh mencipta lukisan dan foto yang kelihatan seperti diambil dengan kamera, dan kemudian, pada bulan November, chatbot yang tersedia untuk umum tiba yang memenangi jutaan pengguna dalam masa beberapa hari. Akses terus kepada alatan ini—sebelum ini dikhaskan untuk perisian khusus—membolehkan kami mengalami dan memahami kuasa AI generatif, dan membolehkan banyak Buat chatbot menggunakan API ChatGPTtetapi ia juga menormalkan idea bahawa simulasi boleh kelihatan seperti kebenaran tanpa begitu.

Ledakan ini disertai dengan demonstrasi kreatif: puisi, novel kilat atau artikel yang, dengan beberapa gesaan, sedia untuk diterbitkan. Rasa sihir menutupi isu teknikal: sistem ini, pada dasarnya, model kebarangkalian yang meramalkan perkataan yang paling berkemungkinan mengikuti perkataan lain. Mereka tidak "faham" seperti manusia; mereka menjana yang paling munasabah; mereka had ingatan dan token syarat tindak balas mereka.

Populariti alatan ini telah membuka pintu kepada senario yang berkisar daripada yang menggelikan kepada yang meresahkan. Seronok untuk menuakan foto untuk melihat "macam mana rupa kita" dalam masa 20 tahun atau mengklonkan suara rakan untuk bermain gurauan. Tetapi apabila manipulasi ini menyentuh ruang awam—politik, kewartawanan, keadilan, penjagaan kesihatan—permainan itu berubah. kepercayaan sosial Ia pada penimbang.

Kami telah melihat perkara ini dengan kempen yang sangat dibincangkan, seperti iklan yang "membangkitkan" Lola Flores menggunakan teknik deepfake untuk iklan bir. Prestasi teknikal itu menarik, ya, tetapi ia juga menjelaskan bahawa industri kreatif, hiburan dan pengiklanan boleh menimbulkan imej hiperrealistik orang yang tidak berada di sana, dengan potensi naratif yang besar dan risiko kekeliruan nyata jika tidak dilaporkan dengan jelas.

Deepfakes, suara klon dan kes mengelirukan

Katalog manipulasi semakin berkembang: aplikasi mudah alih untuk mencipta deepfakes, sistem yang mengklon suara manusia dan model yang menjana pelakon yang tidak wujud dengan menggabungkan ciri daripada beribu-ribu wajah tanpa nama. Firma keselamatan memberi amaran tentang penipuan yang menggunakan suara klon untuk menyamar sebagai pelanggan bank, dan politik telah pun merasakan kesannya; laporan ini juga menyerlahkan Bahaya menggunakan pelayar ChatGPTHanya dua minggu selepas pencerobohan Rusia, video palsu diedarkan mengenai Presiden Zelensky yang menyeru tenteranya untuk menyerah. Ia segera disangkal, tetapi gerakan itu menunjukkan potensinya disinformasi secara besar-besaran.

Dalam kempen baru-baru ini, kami juga telah melihat rekaan yang sangat mempengaruhi emosi, seperti video seorang wanita berkerusi roda yang menuduh seorang calon AS melanggarnya; ia ternyata imej yang dihasilkan oleh AI. Dan kami bukan hanya bercakap tentang visual: klip audio "boleh masuk akal" semakin membiak, meletakkan kata-kata dalam mulut seseorang yang tidak pernah mereka katakan. Lebih meyakinkan simulasi, lebih mudah untuk menyelinap palsu. cerita palsu.

Akibat psikologi adalah ketara. Pakar tingkah laku digital memberi amaran bahawa pendedahan berulang kepada kandungan yang dimanipulasi menyebabkan "kenangan palsu": selepas menonton tiga video yang didoktorkan, kami cenderung untuk mempercayai yang keempat daripada mengakui kami telah ditipu. Dinamik ini, digabungkan dengan kepercayaan kami pada skrin—kami menyemak telefon kami untuk melihat sama ada hujan dan bukannya melihat ke luar tingkap—menjana kepercayaan teknologi yang menjadikan kita lebih terdedah.

  Perbezaan antara Microsoft Copilot dan Copilot+: Semua yang anda perlu ketahui

Melihat ke masa depan, suara seperti komunikator sains Silvia Leal menjangkakan bahawa rendaman dalam persekitaran maya intensif (metaverse) akan merumitkan lagi perbezaan antara pengalaman dan fiksyen. Di sana, kami bukan sahaja akan melihat, tetapi adegan yang dijana secara "langsung", dan menyedari bahawa pengalaman kami berdasarkan pembohongan akan menjadi, bagi kebanyakan orang, terutamanya mencabar. sukar dihadam.

Apa yang dikatakan sains: kepercayaan vs fakta dalam model bahasa

Kajian Stanford baru-baru ini yang diterbitkan dalam Alam Semula jadi melanda kepala: model bahasa secara sistematik gagal membezakan antara apa yang dipercayai seseorang dan apa yang sebenarnya fakta. Dalam ujian dengan kira-kira 13.000 soalan, ketepatan sesetengah sistem merudum apabila menilai kepercayaan orang pertama: contohnya, satu model berubah daripada hampir 98% kepada sekitar 64%, dan satu lagi jatuh daripada lebih 90% kepada sekitar 14% dalam jenis soalan itu. penghakiman epistemik.

Apabila kepercayaan dinyatakan dalam orang ketiga, keadaan bertambah baik (kira-kira 95% dalam model terbaharu), mencadangkan kecenderungan atribusi: mesin bergelut untuk memahami perbezaan antara "Saya percaya" dan "Saya tahu" apabila penceramah adalah protagonis. Bagi manusia, perbezaannya adalah intuitif: "Saya percaya esok akan hujan" menyampaikan ketidakpastian; "Saya tahu Bumi berputar mengelilingi Matahari" bunyinya fakta yang ditetapkan.

Implikasi praktikal adalah sangat besar: diagnosis perubatan ("Saya rasa saya menghidap kanser"), penilaian kesihatan mental, analisis undang-undang, kewartawanan, pendidikan atau nasihat kewangan. Membezakan antara keyakinan subjektif dan kebenaran objektif adalah penting, dan kegagalan berbuat demikian menggandakan risiko kesilapan dengan kesan sosial. Pengarang kajian—yang menilai model seperti GPT-4, DeepSeek R1, o1, Gemini 2, Claude-3 atau Llama-3—memerlukan penambahbaikan segera sebelum digunakan di kawasan di mana perbezaan epistemik Mereka sangat penting.

Terdapat nuansa positif: model telah bertambah baik dengan el tiempo dalam pengesahan langsung tuntutan fakta (contohnya, lonjakan antara GPT-3 dan versi yang lebih baru), tetapi perkembangan ini tidak menghalang mereka daripada sering menawarkan garis alasan yang tidak konsisten. Mereka mungkin sampai pada jawapan yang betul tetapi membenarkannya dengan penjelasan yang bercanggah, lebih dekat dengan pencarian dangkal untuk pola daripada pemahaman yang mantap.

Adakah chatbots berguna sebagai penyemak fakta? Pengajaran dari kesilapan mereka

Semasa tempoh ketegangan yang semakin memuncak—seperti konflik baru-baru ini antara India dan Pakistan—ramai pengguna beralih kepada chatbot yang disepadukan ke dalam media sosial untuk mengesahkan video tular. Pengalaman itu mengecewakan: jawapan yang salah, rekaan, dan kepastian yang tidak wajar; pengumpulan kes menunjukkan kelemahan. Seorang pembantu mengenal pasti video lama lapangan terbang Khartoum sebagai serangan peluru berpandu; dalam kes lain, kebakaran di Nepal telah dikemukakan sebagai "mungkin" tindak balas tentera Pakistan. Kepercayaan buta terhadap alat ini, tanpa pengesahan manusiaIa adalah resipi untuk bencana.

Organisasi seperti NewsGuard telah mendokumentasikan bahawa beberapa chatbot terkemuka mengulangi maklumat yang salah—termasuk naratif pro-Kremlin—dan kajian oleh Tow Center (Universiti Columbia) mendapati bahawa mereka "buruk" dalam menolak soalan yang tidak dapat dijawab dengan tepat, memilih jawapan yang tidak jelas. spekulatif atau tidak betul sebaliknya.

Terdapat contoh yang jelas: apabila chatbot ditanya tentang imej wanita yang dijana AI, ia mengesahkan ketulenan yang sepatutnya dan butiran rekaan tentang identitinya dan lokasi di mana gambar itu diambil; dalam contoh lain, video "anaconda gergasi" di Amazon telah disahkan sebagai nyata, malah memetik ekspedisi saintifik yang direka. Kemudian, pemeriksa fakta membuktikan bahawa itu semua tipuan. dikuasakan AI.

Masalahnya bertambah teruk kerana ramai orang menggantikan enjin carian tradisional dengan chatbots untuk mencari maklumat atau mengesahkan fakta, sama seperti sesetengah platform telah mengurangkan program pengesahan luaran dan mengalihkan beban kepada mekanisme komuniti. Tanpa konteks, kebolehkesanan dan kesedaran tentang batasan mereka, pembantu AI boleh membawa kepada maklumat yang salah. jawapan berat sebelah atau dimanipulasi. Malah terdapat laporan mengenai "pengubahsuaian tanpa kebenaran" yang mendorong sistem ke arah naratif yang melampau; Apabila ditanya siapa yang boleh mengubah arahan, satu bot malah menunjuk kepada penganjurnya sendiri sebagai "kemungkinan besar penyebabnya".

Pakar pengesahan memberi amaran: pembantu boleh "dicetuskan" atau memberikan jawapan berat sebelah apabila pengaturcara manusia sengaja mengubah suai panduan mereka. Dalam perkara sensitif, pelarasan terdahulu ini boleh memaksa respons pra-kebenaran yang memesongkan realiti. Moralnya jelas: chatbots tidak, seperti yang sedia ada, a sumber yang boleh dipercayai pengesahan berita terkini.

Politik, masyarakat dan psikologi: koktel yang sempurna untuk kekeliruan

Pembohongan tidak dilahirkan dengan kod pertama, tetapi internet mendorongnya ke hadapan kerana kebenaran dan kepalsuan bersaing pada skrin yang sama. Pada 2017, sebuah firma perunding teknologi menganggarkan bahawa separuh daripada semua kandungan dalam talian adalah palsu dalam jangka pendek; mungkin kita belum sampai ke sana, tetapi "berita palsu" telah berlipat ganda sehingga ada yang bercakap tentang a agama yang sahih penipuan. Selepas pandemik, fenomena ini bertambah hebat.

  Cara menyediakan DMZ di rangkaian rumah atau perniagaan anda

Terdapat preseden undang-undang yang menetapkan had. Mahkamah Sepanyol menjatuhkan sabitan pertama ke atas pengguna yang menyebarkan penipuan mengenai kanak-kanak di bawah umur warga asing: satu preseden penting, walaupun pakar mengakui bahawa adalah mustahil untuk mendakwa semua pembohongan yang disebarkan dalam talian. Oleh itu, ramai yang mencadangkan usaha memfokuskan pada penerima—pendidikan dan pemikiran kritis—dan bukannya pada pengirim, sambil tetap menuntut platform... memikul tanggungjawab.

Peningkatan mendadak dalam pendigitalan telah mengubah tabiat kami: kami melihat telefon kami sebelum melihat ke luar tingkap, dan jika apa yang kami lihat di luar tidak sepadan dengan apl, kami cenderung untuk mempercayai skrin. Ahli falsafah sains memberi amaran tentang pemindahan kepercayaan daripada manusia kepada teknikal dan risiko menormalkan budaya di mana segala-galanya boleh ditafsirkan sebagai pembohongan atau, lebih teruk lagi, sebagai kebenaran yang tidak boleh dirundingkan. Hidup terperangkap antara kepercayaan mutlak dan... rasa tidak percaya sepenuhnya Ia menjadikan kita boleh dimanipulasi.

Terdapat juga dimensi politik yang mengganggu: apa yang dipanggil "fakta alternatif" dan manipulasi orang ramai dengan naratif rekaan telah mendapat tempat. Pemikir dan penulis mengingatkan kita bahawa tidak pernah semudah ini untuk berbohong, dan tidak pernah berbohong sebegitu berbahaya. Seperti dengan senjata: pada masa lalu, pedang membunuh seorang lelaki; hari ini kita mempunyai keupayaan—secara kiasan dan literal—untuk untuk memusnahkan segala-galanya.

Celik media dan petua praktikal untuk mengelakkan diri daripada terjatuh

Vaksin terbaik terhadap disinformasi ialah pendidikan: rakyat dan wartawan memerlukan latihan untuk mengenal pasti penipuan, menilai sumber dan memahami cara AI berfungsi. Menurut penyelidikan, separuh daripada pelajar sekolah menengah tidak dapat membezakan antara berita palsu dan maklumat rekaan. Adalah penting untuk mengajar mereka—dan diri kita sendiri—cara mengekalkan amaran emosiJika sekeping kemarahan atau kagum anda, tarik nafas, jangan kongsikannya lagi.

Petua klasik yang tidak pernah gagal: cari berbilang sumber yang boleh dipercayai, semak tarikh dan konteks serta curiga dengan kandungan yang meminta anda "percaya" tanpa bukti. Apabila isu sedang pecah, kewartawanan yang serius memerlukan masa: laporan, semakan fakta, testimoni, analisis pakar. Pengesahan memerlukan masa, dan pembohongan memainkannya dengan tepat. segera.

Terdapat alat yang menambah nilai. Check by Meedan menawarkan aliran kerja seperti sembang untuk menyerahkan kandungan dan menerima analisis yang mengklasifikasikannya sebagai palsu, mengelirukan atau benar, selain menyemak imej dan teks dalam masa nyata. Faktual menilai kredibiliti beribu-ribu cerita setiap hari dengan menganalisis sejarah outlet, sumber yang dipetik, dan rekod prestasi pengarang, dan mengembalikan indeks untuk menentukur kebolehpercayaan.

Perlu diingat juga bahawa AI tidak boleh menghubungi sumber, berada di tempat kejadian atau mengesahkan maklumat seperti yang dilakukan oleh manusia. Terdapat kemajuan yang menarik—walaupun dalam pemesejan seperti WhatsApp Mereka sedang mengusahakan fungsi kreatif dengan AI, seperti gambar profil yang dijana—tetapi itu tidak bermakna mereka boleh memberitahu kami jika sesuatu itu benar. Beberapa aplikasiSebagai contoh, kod tingkah laku mereka sudah memberi amaran: "Jangan gunakan alat ini untuk menimbulkan kegusaran; hormatilah." Kejujuran, buat masa ini, kekal sebagai cabaran. perkara manusia.

Satu lagi isu yang sangat serius ialah "bogel palsu" kanak-kanak bawah umur yang dijana oleh AI. Selain kesan emosi yang memusnahkan, terdapat akibat undang-undang yang ketara: menghasilkan atau mengedar bahan ini bukan permainan, ia adalah jenayah. Celik digital juga melibatkan mengetahui rangka kerja undang-undang dan memahami bahawa teknologi tidak meneutralkan undang-undang. tanggungjawab.

Kewartawanan, jenama dan peranan platform

perundingan undang-undang kecerdasan buatan eu-9

Inisiatif seperti infografik yang dibentangkan oleh Yayasan Gabo, FLIP dan Consejo de Redacción di Pesta Buku Bogotá berusaha untuk menerangkan secara visual cara AI dan disinformasi beroperasi. Pengarahnya, Mario Tascón, mengimbau bahawa 2022 adalah titik perubahan: mula-mula muncul imej generatif yang "kami tidak tahu bagaimana ia dibuat," dan kemudian bot sembang yang boleh dicuba oleh sesiapa sahaja, jauh lebih pantas daripada platform media sosial yang lain. Memahami keterbukaan besar-besaran ini membantu menjelaskan mengapa ia begitu berleluasa hari ini. sukar dibezakan kebenaran atau dusta.

Tascón menekankan dua perkara utama: rakyat memerlukan literasi media, dan kewartawanan mesti memperhalusi alat pengesahannya kerana simulasi menjadi semakin canggih. Tambahan pula, beliau menggariskan bahawa model bahasa membina ayat dengan mengira perkataan mana yang paling mungkin diikuti; ini bukanlah "kecerdasan" dalam erti kata manusia, walaupun ia mungkin kelihatan begitu. Oleh itu, adalah dinasihatkan untuk menggunakan AI sebagai pembantu, tetapi bukan sebagai alat untuk penemuan diri. untuk mengambil mudah semua yang dihasilkannya.

  Apakah Semantic Scholar: enjin carian akademik yang dikuasakan AI

Mengenai automasi, beberapa tugas mekanikal akan diganti (contohnya, alih suara tertentu), tetapi pelaporan, penyaksian dan pembinaan naratif yang kompleks dari dasar masih jauh di luar jangkauan mesin. Pada masa yang sama, jenama kewartawanan semakin penting: ketiadaan sesuatu dalam media tertentu—atau penampilannya hanya untuk menyerlahkan kepalsuannya—harus menimbulkan kebimbangan. tanda amaran di khalayak ramai.

Platform, bagi pihak mereka, tidak boleh melihat ke arah lain: mereka mesti bertanggungjawab untuk apa yang beredar. Alat wujud untuk mengesan penipuan; menerapkannya bukan pilihan apabila potensi bahaya sosial adalah tinggi. Keputusan seperti mengurangkan pengesahan luaran dan bergantung semata-mata pada mekanisme komuniti boleh meninggalkan jurang yang dieksploitasi dengan mudah oleh maklumat salah. akauntabiliti Ia adalah sebahagian daripada reka bentuk.

Kuasa, pengaruh dan kepercayaan: analogi yang berguna

Menariknya, apa yang berlaku dengan maklumat yang salah menyerupai dinamik kepimpinan tanpa kuasa rasmi dalam organisasi. Sesiapa sahaja yang telah beralih daripada bekerjasama secara individu kepada menguruskan pasukan tahu bahawa jawatan memberikan kuasa terhad: kuncinya terletak pada kredibilitiHubungan dan keupayaan untuk mempengaruhi tanpa memaksa. Digunakan untuk ekosistem maklumat, tidak cukup untuk "memerintahkan" penonton supaya tidak mempercayai penipuan; adalah perlu untuk membina kepercayaan dan rangkaian kerjasama dengan wartawan, pemeriksa fakta, platform dan rakyat.

Beberapa pelajaran berfungsi sebagai panduan: organisasi (dan rangkaian) sememangnya bersifat politik, dengan keutamaan dalam ketegangan; kuasa berpunca daripada reputasi, pengalaman, dan keterlihatan seperti daripada peranan; dan kredibiliti terletak pada tiga soalan: Adakah anda mahu melakukan perkara yang betul? Adakah anda tahu apa yang betul? Bolehkah anda melakukannya? Jika jawapannya tidak, pengaruh sukar difahami. Memetakan saling kebergantungan—siapa yang boleh membantu anda, siapa yang boleh menyekat anda dan siapa yang bergantung kepada anda—dan meletakkan diri anda dalam kedudukan orang lain menyokong kepercayaan bersama.

Dari perspektif ini, pengaruh bukan tentang "mendapatkan cara sendiri," tetapi tentang menjana kemenangan bersama: projek yang menyelaraskan objektif dan mengurangkan insentif untuk menyebarkan maklumat yang salah. Dalam bidang AI dan kandungan, ini bermakna menyelaraskan media, akademia, masyarakat sivil dan syarikat teknologi di sekitar protokol terbuka, audit dan piawaian yang jelas.

Apa yang boleh kita lakukan sekarang (individu dan organisasi)

Untuk kegunaan harian, adalah berguna untuk mempunyai kit alat asas: berhati-hati terhadap apa-apa yang menimbulkan kemarahan atau mempesonakan anda, cari petunjuk yang jelas (ralat kontekstual, metadata, sumber tanpa nama dan "eksklusif" yang meragukan), dan jika boleh, sahkan dengan orang yang terlibat. Selalunya, panggilan atau e-mel sudah cukup untuk membongkar penipuan. Dalam kes video dan audio, analisa bayang-bayang, pantulan, artifak dan corak pernafasan; AI sering terlepas butiran yang lebih halus. Dan ingat: chatbot bukan a pengadil kebenaran.

  • Gunakan alat pengesahan (contohnya, Semak oleh Meedan) untuk mengelaskan dan membandingkan bahagian yang meragukan, dan melengkapkan dengan enjin carian imej terbalik dan penyemak metadata.
  • Rujuk indeks kredibiliti seperti Yang FaktualSemak kualiti sumber dan rekod prestasi pengarang sebelum diterbitkan.
  • Jika anda melihat penipuan, jangan kongsikannya "untuk mengkritiknya" tanpa konteks: pautan ke pembongkaran itu dan terangkan secara ringkas mengapa ia adalah palsu untuk menghentikan penyebarannya. tersebar.
  • Ia menuntut ketelusan daripada platform dan saluran media berkenaan dasar penyederhanaan mereka, prosedur pembetulan dan penggunaan AI dalam penjanaan kandungan.

Sudah tiba masanya untuk memikirkan semula pendidikan formal: termasuk subjek yang menerangkan "di sebalik tabir" kepalsuan—bagaimana deepfakes dicipta, cara suara diklon, cara data dimanipulasi—akan mengukuhkan kemahiran berfikir kritis, terutamanya dalam kalangan remaja. Dan, secara paradoks, salah satu alat pengesahan terbaik kekal sebagai manusia yang paling manusiawi: bercakap secara bersemuka, bertanya soalan dan mencari kebenaran. pengesahan langsung tentang siapa dia kononnya berkata atau melakukan sesuatu.

Cabarannya bukan teknologi tetapi budaya. Mesin membantu kami, tetapi mereka tidak merasakan, melihat atau mengesahkan maklumat seperti yang kami lakukan. AI, dengan sendirinya, tidak dapat membezakan kebenaran daripada kepalsuan; ia hanya melaraskan kebarangkalian. Untuk wujud bersamanya tanpa mengasaskan, kita perlu memulihkan kepercayaan dalam proses kewartawanan, mengukuhkan celik media dan mewujudkan peraturan permainan yang jelas untuk platform dan pembangun. Hanya dengan itu kita boleh mengemudi persekitaran di mana penampilan kebenaran tidak lagi menjamin ketepatan. Biarlah.