A mund ta dallojnë të vërtetën nga gënjeshtrat bisedat me anë të inteligjencës artificiale?

Përditësimi i fundit: 06/11/2025
Author: Isaac
  • La AI gjeneruese Simulon me realizëm të madh, por vërtetësia e tij nuk është e garantuar.
  • Studimet tregojnë dështime në dallimin e besimeve nga faktet, me rreziqe sociale.
  • Chatbot-et dështojnë si verifikues të fakteve dhe mund të përforcojnë mashtrimet nëse nuk ka kontroll njerëzor.

Inteligjenca artificiale dhe vërtetësia

Pyetja e madhe është e drejtpërdrejtë dhe aspak e parëndësishme: a mund të jenë dhomat e bisedave... IA Si mund ta dallojmë të vërtetën nga gënjeshtrat? Vitet e fundit, kemi parë modele bisedore që depërtojnë në jetën tonë të përditshme me një lehtësi të habitshme, të afta për të shkruar ese, për të programuar dhe për të mbajtur dialogë që nuk dallohen nga ato të një personi. Ky përhapje ka gjeneruar kaq shumë... admirimi si shqetësimSepse i njëjti mjet që zgjidh detyrat për ne menjëherë mund të bëjë edhe gabime, të shpikë ose të amplifikojë mashtrimet me një shpejtësi të papranueshme.

Që nga viti 2022, me hapjen e Biseda GPT Për publikun, IA gjeneruese ka përshpejtuar një ndryshim kulturor: tani kushdo mund të prodhojë tekste sintetike, imazhe, zëra ose video me rezultate të mahnitshme. Në të njëjtën kohë, po rritet një dyshim i arsyeshëm: kur lexojmë një artikull, shikojmë një video ose dëgjojmë audio, çfarë fshihet pas tij - një njeri apo një algoritëm? Dhe më e rëndësishmja, a është e vërtetë ajo që pretendohet? Përgjigja e sinqertë është se dallimi midis të dyjave po bëhet gjithnjë e më i vështirë, dhe kjo kërkon... njohuritë mediatike, verifikimi dhe të menduarit kritik.

Si të zbuloni nëse një video është krijuar nga inteligjenca artificiale
Artikulli i lidhur:
Si të zbuloni nëse një video është krijuar nga IA: një udhëzues i plotë

Një hap i rëndësishëm në vitin 2022 që ndryshoi bisedën

Viti 2022 shënoi një pikë kthese: së pari, u shfaqën gjeneratorë imazhesh që mund të krijonin piktura dhe foto që dukeshin sikur ishin bërë me një aparat fotografik, dhe më pas, në nëntor, mbërriti një chatbot i disponueshëm publikisht që fitoi miliona përdorues brenda pak ditësh. Ky akses i drejtpërdrejtë në mjete - i rezervuar më parë për softuer të specializuar - na lejoi të përjetonim dhe të kuptonim fuqinë e IA-së gjeneruese dhe i mundësoi shumë njerëzve... Krijo një chatbot duke përdorur API-në ChatGPTpor gjithashtu normalizoi idenë se Simulimi mund të duket si e vërteta pa qenë.

Ky bum u shoqërua me demonstrime krijuese: poema, romane të shpejta ose artikuj që, me disa sugjerime, ishin gati për botim. Ndjesia e magjisë maskon një problem teknik: këto sisteme janë, në thelb, modele probabilistike që parashikojnë fjalën më të mundshme që të pasojë një tjetër. Ato nuk "kuptojnë" si një njeri; ato gjenerojnë më të besueshmen; e tyre kufijtë e kujtesës dhe tokenëve kushtëzojnë përgjigjen e tyre.

Popullariteti i këtyre mjeteve ka hapur derën për skenarë që variojnë nga më zbavitës deri tek më shqetësues. Është argëtuese të plakësh një foto për të parë "si do të dukemi" pas 20 vitesh ose të klonosh zërin e një miku për të bërë një shaka. Por kur ky manipulim prek sferën publike - politikën, gazetarinë, drejtësinë, kujdesin shëndetësor - loja ndryshon. besim social Është në peshore.

E kemi parë tashmë këtë me fushata shumë të diskutuara, siç është reklama që "ringjalli" Lola Flores duke përdorur teknika deepfake për një reklamë birre. Arritja teknike ishte interesante, po, por gjithashtu e bëri të qartë se industria krijuese, argëtimi dhe reklamat mund të sjellin në mendje imazhe hiperrealiste të njerëzve që nuk janë aty, me potencial të madh narrativ dhe një rreziku i konfuzionit e vërtetë nëse nuk raportohet qartë.

Deepfakes, zëra të klonuar dhe raste konfuze

Katalogu i manipulimeve po rritet: aplikacione mobile për krijimin e deepfakes, sisteme që klonojnë zëri i njeriut dhe modele që gjenerojnë aktorë joekzistues duke kombinuar karakteristika nga mijëra fytyra anonime. Firmat e sigurisë paralajmërojnë për mashtrime që përdorin zëra të klonuar për të imituar klientët e bankave, dhe politika tashmë e ka ndjerë ndikimin; këto raporte gjithashtu nxjerrin në pah Rreziqet e përdorimit të shfletuesit ChatGPTVetëm dy javë pas pushtimit rus, qarkulloi një video e rreme e Presidentit Zelensky duke u bërë thirrje trupave të tij të dorëzoheshin. U demaskua shpejt, por manovra tregoi potencialin për dezinformimi në shkallë të gjerë.

Në fushatat e fundit, kemi parë edhe sajime me ndikim të lartë emocional, siç është videoja e një gruaje në karrocë me rrota që akuzon një kandidat amerikan se e ka goditur me makinë; doli të ishte një imazh i gjeneruar nga inteligjenca artificiale. Dhe nuk po flasim vetëm për pamjet: klipet audio "të besueshme" po shumohen, duke i vënë në gojë dikujt fjalë që nuk i ka thënë kurrë. Sa më bindës të jetë simulimi, aq më e lehtë është të rrëshqasë një mashtrim. histori e rreme.

Pasojat psikologjike janë të rëndësishme. Ekspertët e sjelljes dixhitale paralajmërojnë se ekspozimi i përsëritur ndaj përmbajtjes së manipuluar shkakton "kujtime të rreme": pasi shikojmë tre video të manipuluara, ne priremi të besojmë të katërtën në vend që të pranojmë se jemi mashtruar. Kjo dinamikë, e kombinuar me besimin tonë në ekrane - ne kontrollojmë telefonat tanë për të parë nëse po bie shi në vend që të shikojmë nga dritarja - nxit një besueshmëri teknologjike gjë që na bën më të prekshëm.

  A është e sigurt të përdoret ChatGPT për të gjeneruar fjalëkalime?

Duke parë drejt së ardhmes, zëra si ai i komunikueses shkencore Silvia Leal parashikojnë se zhytja në mjedise virtuale intensive (metauniversi) do ta ndërlikojë më tej dallimin midis përvojës dhe trillimit. Atje, jo vetëm që do të shohim, por do të "jetojmë" skena të gjeneruara, dhe të pranojmë se përvoja jonë bazohej në një gënjeshtër do të jetë, për shumë njerëz, veçanërisht sfiduese. e vështirë për t’u tretur.

Çfarë thotë shkenca: besimet kundrejt fakteve në modelet gjuhësore

Një studim i kohëve të fundit i Stanfordit, i botuar në revistën Nature, e ka goditur pikën e saktë: modelet gjuhësore dështojnë sistematikisht të dallojnë midis asaj që një person beson dhe asaj që është në të vërtetë një fakt. Në testet me rreth 13.000 pyetje, saktësia e disa sistemeve ra ndjeshëm gjatë vlerësimit të besimeve në vetën e parë: për shembull, një model shkoi nga gati 98% në rreth 64%, dhe një tjetër ra nga mbi 90% në rreth 14% në atë lloj pyetjeje. gjykime epistemike.

Kur bindjet u shprehën në vetën e tretë, gjërat u përmirësuan (rreth 95% në modelet e fundit), duke sugjeruar një paragjykim atribuimi: makina e ka të vështirë të kuptojë ndryshimin midis "Unë besoj" dhe "Unë e di" kur folësi është protagonisti. Për një njeri, dallimi është intuitiv: "Unë besoj se do të bjerë shi nesër" komunikon pasiguri; "Unë e di që Toka rrotullohet rreth Diellit" tingëllon si fakt i vërtetuar.

Implikimet praktike janë të jashtëzakonshme: diagnoza mjekësore ("Mendoj se kam kancer"), vlerësime të shëndetit mendor, analiza ligjore, gazetari, arsim ose këshilla financiare. Dallimi midis bindjes subjektive dhe të vërtetës objektive është thelbësor, dhe mosveprimi në këtë drejtim shumëfishon rrezikun e gabimeve me pasoja sociale. Autorët e studimit - të cilët vlerësuan modele të tilla si GPT-4, DeepSeek R1, o1, Binjakët 2, Claude-3 ose Llama-3—kërkojnë përmirësime urgjente përpara se të vendosen në zona ku dallimet epistemike Ato kanë vërtet rëndësi.

Ka nuanca pozitive: modelet janë përmirësuar me el tiempo në verifikimin e drejtpërdrejtë të pretendimeve faktike (për shembull, kalimi midis GPT-3 dhe versioneve të mëvonshme), por ky progresion nuk i pengon ata që shpesh të ofrojnë linja arsyetimi jokonsistente. Ata mund të arrijnë në përgjigjen e saktë dhe megjithatë ta justifikojnë atë me shpjegime kontradiktore, më afër një kërkimi sipërfaqësor për modele sesa një mirëkuptim solid.

A janë të dobishëm chatbot-et si verifikues faktesh? Mësime nga gabimet e tyre

Gjatë periudhave të tensionit të lartë - siç ishte konflikti i fundit midis Indisë dhe Pakistanit - shumë përdorues iu drejtuan chatbot-eve të integruar në mediat sociale për të verifikuar videot virale. Përvoja ishte dekurajuese: përgjigje të gabuara, trillime dhe siguri të pajustifikuar; grumbullimi i rasteve tregon të metat. Një asistent identifikoi një video të vjetër të aeroportit të Khartumit si një sulm me raketa; në një rast tjetër, një zjarr në Nepal u paraqit si "ndoshta" një përgjigje ushtarake pakistaneze. Besim i verbër në këto mjete, pa verifikim njerëzorËshtë një recetë për katastrofë.

Organizata si NewsGuard kanë dokumentuar se disa chatbot kryesorë përsërisin dezinformata - duke përfshirë narrativa pro-Kremlinit - dhe një studim nga Qendra Tow (Universiteti i Kolumbias) zbuloi se ata janë "të këqij" në refuzimin e pyetjeve të cilave nuk mund t'u përgjigjen me saktësi, duke zgjedhur përgjigje të paqarta. spekulative ose të pasakta en su lugar.

Ka shembuj të gjallë: kur një chatbot u pyet për një imazh të gjeneruar nga inteligjenca artificiale të një gruaje, ai konfirmoi autenticitetin e supozuar dhe sajoi detaje rreth identitetit të saj dhe vendndodhjes ku ishte bërë; në një rast tjetër, një video e një “anakonde gjigante” në Amazon u vërtetua si e vërtetë, madje duke cituar ekspedita shkencore të sajuara. Më vonë, verifikuesit e fakteve vërtetuan se e gjitha ishte një mashtrim. Me inteligjencë artificiale.

Problemi përkeqësohet sepse shumë njerëz po i zëvendësojnë motorët tradicionalë të kërkimit me chatbot-e për të gjetur informacion ose për të verifikuar fakte, ashtu si disa platforma kanë reduktuar programet e verifikimit të jashtëm dhe e kanë zhvendosur barrën te mekanizmat e komunitetit. Pa kontekst, gjurmueshmëri dhe një vetëdije për kufizimet e tyre, asistentët e inteligjencës artificiale mund të çojnë në dezinformata. përgjigje të njëanshme ose të manipuluar. Madje ka pasur raportime për “modifikime të paautorizuara” që e shtyjnë sistemin drejt narrativave ekstreme; kur u pyet se kush mund t’i kishte ndryshuar udhëzimet, një robot madje tregoi promotorin e vet si “fajtorin më të mundshëm”.

Ekspertët e verifikimit paralajmërojnë: asistentët mund të "aktivizohen" ose të japin përgjigje të njëanshme kur programuesit njerëzorë i modifikojnë qëllimisht udhëzuesit e tyre. Në çështje të ndjeshme, ky rregullim paraprak mund të detyrojë përgjigje të para-autorizuara që shtrembërojnë realitetin. Morali është i qartë: chatbot-et nuk janë, siç janë aktualisht, një... burim i besueshëm verifikimi i lajmeve të fundit.

Politika, shoqëria dhe psikologjia: kokteji perfekt për konfuzion

Gënjeshtrat nuk lindën me copën e parë të kodit, por interneti i shtyu ato përpara sepse e vërteta dhe gënjeshtra konkurrojnë në të njëjtin ekran. Në vitin 2017, një firmë konsulence teknologjike vlerësoi se gjysma e të gjithë përmbajtjes online do të ishte e rreme në një afat të shkurtër; ndoshta nuk jemi ende atje, por "lajmet e rreme" janë shumëfishuar aq shumë sa disa po flasin për një fe autentike mashtrimit. Pas pandemisë, ky fenomen u intensifikua.

  Historia e virusit të parë kompjuterik dhe origjina e softuerit antivirus

Ekzistojnë precedentë ligjorë që vendosin kufizime. Një gjykatë spanjolle dha dënimin e parë për një përdorues që përhapi një mashtrim në lidhje me të miturit e huaj: një precedent i rëndësishëm, megjithëse ekspertët pranojnë se është e pamundur të ndiqen penalisht të gjitha gënjeshtrat e përhapura në internet. Prandaj, shumë propozojnë përqendrimin e përpjekjeve te marrësi - edukimi dhe mendimi kritik - në vend të dërguesit, ndërkohë që kërkojnë ende që platformat... marr përgjegjësinë.

Rritja meteorike e dixhitalizimit ka ndryshuar zakonet tona: ne i shikojmë telefonat tanë përpara se të shikojmë nga dritarja, dhe nëse ajo që shohim jashtë nuk përputhet me aplikacionin, kemi tendencë t'i besojmë ekranit. Filozofët e shkencës paralajmërojnë për këtë transferim të besimit nga njeriu në atë teknik dhe rrezikun e normalizimit të një kulture në të cilën gjithçka mund të interpretohet si gënjeshtër ose, më keq akoma, si një e vërtetë e panegociueshme. Të jetosh i bllokuar midis besueshmërisë absolute dhe... mosbesim total Na bën të manipulueshëm.

Ekziston gjithashtu një dimension politik shqetësues: të ashtuquajturat "fakte alternative" dhe manipulimi i masave me rrëfime të sajuara kanë fituar terren. Mendimtarët dhe shkrimtarët na kujtojnë se nuk ka qenë kurrë kaq e lehtë të gënjesh, dhe as gënjeshtra nuk ka qenë kurrë kaq e rrezikshme. Ashtu si me armët: në të kaluarën, një shpatë vriste një njeri; sot ne kemi aftësinë - në mënyrë figurative dhe të drejtpërdrejtë - të për të shkatërruar gjithçka.

Njohuritë mediatike dhe këshilla praktike për të shmangur rënien në të

Vaksina më e mirë kundër dezinformimit është edukimi: qytetarët dhe gazetarët kanë nevojë për trajnim për të identifikuar mashtrimet, për të vlerësuar burimet dhe për të kuptuar se si funksionon inteligjenca artificiale. Sipas hulumtimeve, gjysma e nxënësve të shkollave të mesme nuk mund të dallojnë lajmet e rreme nga informacioni i sajuar. Është urgjente t'u mësojmë atyre - dhe vetes - se si ta ruajmë... alarm emocionalNëse një shkrim të zemëron ose të mahnit, merr frymë thellë, mos e ndaj ende.

Një këshillë klasike që nuk dështon kurrë: kërkoni burime të shumta të besueshme, kontrolloni datat dhe kontekstin dhe jini dyshues ndaj përmbajtjes që ju kërkon të "besoni" pa prova. Kur çështjet janë të rëndësishme, gazetaria serioze kërkon kohë: raporte, verifikime faktesh, dëshmi, analiza ekspertësh. Verifikimi kërkon kohë dhe gënjeshtrat luajnë pikërisht me këtë. menjëherë.

Ekzistojnë mjete që shtojnë vlerë. Check by Meedan ofron një rrjedhë pune të ngjashme me bisedën për dorëzimin e përmbajtjes dhe marrjen e një analize që e klasifikon atë si të rreme, mashtruese ose të vërtetë, përveç shqyrtimit të imazheve dhe tekstit në kohë reale. The Factual vlerëson besueshmërinë e mijëra historive çdo ditë duke analizuar historinë e medies, burimet e cituara dhe të dhënat e autorit, dhe kthen një indeks për të kalibruar seriozitet.

Gjithashtu, ia vlen të kujtojmë se inteligjenca artificiale nuk mund të telefonojë një burim, të jetë në vendngjarje ose të verifikojë informacionin siç mund ta bëjë një njeri. Ka përparime interesante - madje edhe në mesazhe si p.sh. WhatsApp Ata po punojnë në funksione krijuese me inteligjencën artificiale, siç janë fotografitë e profilit të gjeneruara - por kjo nuk do të thotë se ata mund të na tregojnë nëse diçka është e vërtetë. Disa appsPër shembull, kodi i tyre i sjelljes paralajmëron tashmë: “Mos i përdorni këto mjete për të shkaktuar bezdi; jini të respektueshëm.” Sinqeriteti, për momentin, mbetet një sfidë. materie njerëzore.

Një tjetër çështje shumë serioze është ajo e “fotove të rreme nudo” të të miturve të gjeneruara nga inteligjenca artificiale. Përveç ndikimit shkatërrues emocional, ka pasoja të rëndësishme ligjore: prodhimi ose shpërndarja e këtij materiali nuk është lojë, është krim. Njohuritë dixhitale përfshijnë gjithashtu njohjen e kuadrit ligjor dhe kuptimin se teknologjia nuk e neutralizon ligjin. përgjegjësi.

Gazetaria, markat dhe roli i platformave

konsultimi ligjor i inteligjencës artificiale eu-9

Iniciativa si infografiku i prezantuar nga Fondacioni Gabo, FLIP dhe Consejo de Redacción në Panairin e Librit në Bogota kërkojnë të shpjegojnë vizualisht se si funksionojnë inteligjenca artificiale dhe dezinformimi. Drejtori i saj, Mario Tascón, kujton se viti 2022 ishte një pikë kthese: së pari erdhën imazhet gjeneruese që "nuk e dinim se si krijoheshin" dhe më pas një chatbot që kushdo mund ta provonte, shumë më shpejt se platformat e tjera të mediave sociale. Të kuptuarit e kësaj hapjeje masive ndihmon në shpjegimin pse është kaq e përhapur sot. vështirë për tu dalluar e vërtetë apo gënjeshtër.

Tascón thekson dy pika kyçe: qytetarët kanë nevojë për njohuri mediatike dhe gazetaria duhet të përsosë mjetet e saj të verifikimit sepse simulimet po bëhen gjithnjë e më të sofistikuara. Për më tepër, ai nënvizon se modelet gjuhësore ndërtojnë fjali duke llogaritur se cila fjalë ka më shumë gjasa të pasojë; kjo nuk është "inteligjencë" në kuptimin njerëzor, edhe pse mund të duket kështu. Prandaj, këshillohet të përdoret IA si asistent, por jo si mjet për vetëzbulim. ta marrësh si të mirëqenë gjithçka që prodhon.

  Zbatimi i CMOV nga Linus Torvalds përmirëson performancën dhe sigurinë e Linux

Lidhur me automatizimin, disa detyra mekanike do të zëvendësohen (për shembull, disa zëra), por raportimi, dëshmimi dhe ndërtimi i narrativave komplekse nga terreni mbeten shumë përtej mundësive të një makine. Në të njëjtën kohë, markat gazetareske po rifitojnë rëndësi: mungesa e diçkaje në disa media - ose shfaqja e saj vetëm për të nxjerrë në pah falsitetin e saj - duhet të ngrejë shqetësime. shenja paralajmëruese në publik.

Platformat, nga ana e tyre, nuk mund të bëjnë sikur nuk shohin: ato duhet të marrin përgjegjësi për atë që qarkullon. Ekzistojnë mjete për të zbuluar mashtrimet; zbatimi i tyre nuk është opsional kur dëmi i mundshëm shoqëror është i lartë. Vendime të tilla si zvogëlimi i verifikimit të jashtëm dhe mbështetja vetëm në mekanizmat e komunitetit mund të lënë boshllëqe që dezinformimi shfrytëzohet lehtësisht. llogaridhënies Është pjesë e dizajnit.

Autoriteti, ndikimi dhe besimi: një analogji e dobishme

Është interesante se ajo që ndodh me dezinformimin i ngjan dinamikës së lidershipit pa autoritet formal në organizata. Kushdo që ka kaluar nga bashkëpunimi individual në menaxhimin e ekipeve e di se një pozicion jep pushtet të kufizuar: çelësi qëndron në besueshmëriMarrëdhëniet dhe aftësia për të ndikuar pa u imponuar. E aplikuar në ekosistemin e informacionit, nuk mjafton të "urdhërohet" audienca të mos besojë mashtrime; është e nevojshme të ndërtohet besim dhe rrjete bashkëpunimi me gazetarët, verifikuesit e fakteve, platformat dhe qytetarët.

Disa mësime shërbejnë si udhërrëfyes: organizatat (dhe rrjetet) janë në thelb politike, me prioritete në tension; pushteti buron nga reputacioni, përvoja dhe dukshmëria po aq sa nga roli; dhe besueshmëria mbështetet në tre pyetje: A doni të bëni gjënë e duhur? A e dini se cila është gjëja e duhur? A mund ta bëni? Nëse përgjigjja është jo, ndikimi është i pakapshëm. Hartimi i ndërvarësive - kush mund t'ju ndihmojë, kush mund t'ju bllokojë dhe kush varet nga ju - dhe vendosja e vetes në këpucët e personit tjetër mbështet... besim reciprok.

Nga kjo perspektivë, ndikimi nuk ka të bëjë me "arritjen e qëllimit të dikujt", por me gjenerimin e fitoreve të përbashkëta: projekte që përafrojnë objektivat dhe zvogëlojnë stimujt për përhapjen e dezinformimit. Në fushën e inteligjencës artificiale dhe përmbajtjes, kjo do të thotë përafrimi i medias, akademisë, shoqërisë civile dhe kompanive të teknologjisë rreth protokolleve të hapura, auditimeve dhe... standarde të qarta.

Çfarë mund të bëjmë tani (individët dhe organizatat)

Për përdorim të përditshëm, është e dobishme të kesh një set mjetesh bazë: ki kujdes nga çdo gjë që të zemëron ose të verbon, kërko për të dhëna të dukshme (gabime kontekstuale, meta të dhëna, burime anonime dhe "ekskluzive" të dyshimta) dhe, nëse është e mundur, verifiko me personin e përfshirë. Shpesh, një telefonatë ose një email është e mjaftueshme për të demaskuar një mashtrim. Në rastin e videove dhe audios, analizo hijet, reflektimet, artefaktet dhe modelet e frymëmarrjes; IA shpesh i humbet detajet më të imëta. Dhe mos harroni: një chatbot nuk është një arbitër i së vërtetës.

  • Përdorni mjete verifikimi (për shembull, Kontroll nga Meedan) për të klasifikuar dhe krahasuar pjesë të dyshimta, dhe plotësohet me motorë kërkimi të imazheve të kundërta dhe rishikues të meta të dhënave.
  • Konsultohuni me indekset e besueshmërisë, të tilla si FaktualeKontrolloni cilësinë e burimeve dhe të dhënat e autorëve përpara se të publikoni.
  • Nëse vini re një mashtrim, mos e ndani atë "për ta kritikuar" pa kontekst: vendosni një lidhje për demaskimin dhe shpjegoni shkurtimisht pse është i rremë për të ndaluar përhapjen e tij. përhap.
  • Kërkon transparencë nga platformat dhe mediat në lidhje me politikat e tyre të moderimit, procedurat e korrigjimit dhe përdorimin e inteligjencës artificiale në gjenerimin e përmbajtjes.

Është gjithashtu koha për të rimenduar arsimin formal: përfshirja e një lënde që shpjegon "prapa skenave" të gënjeshtrave - si krijohen deepfakes, si klonohen zërat, si manipulohen të dhënat - do të forconte aftësitë e të menduarit kritik, veçanërisht tek adoleshentët. Dhe, paradoksalisht, një nga mjetet më të mira të verifikimit mbetet më njerëzorja: të folurit ballë për ballë, të bësh pyetje dhe të kërkosh të vërtetën. konfirmim i drejtpërdrejtë për të cilin supozohet se tha ose bëri diçka.

Sfida nuk është teknologjike, por kulturore. Makineritë na ndihmojnë, por ato nuk e ndiejnë, shohin ose verifikojnë informacionin siç bëjmë ne. IA, më vete, nuk mund të dallojë të vërtetën nga e pavërteta; ajo vetëm përshtat probabilitetet. Për të bashkëjetuar me të pa u rrëzuar, duhet të rivendosim besimin në proceset gazetareske, të forcojmë njohuritë mediatike dhe të vendosim rregulla të qarta loje për platformat dhe zhvilluesit. Vetëm atëherë mund të lundrojmë në një mjedis ku shfaqja e së vërtetës nuk garanton më saktësi. Le të jetë.