- La IA generativa simula amb gran realisme, però la veracitat no està garantida.
- Estudis mostren errors en distingir creences davant de fets, amb riscos socials.
- Els chatbots fallen com a verificadors i poden amplificar bitlles si no hi ha control humà.
La gran pregunta és directa i gens trivial: poden els xats de IA distingir entre la veritat i la mentida? En els darrers anys hem vist com els models conversacionals s'han colat al nostre dia a dia amb una soltesa sorprenent, capaços de redactar assaigs, programar i mantenir diàlegs que es confonen amb els d'una persona. Aquest desplegament n'ha generat tanta admiració com a inquietud, perquè la mateixa eina que ens resol tasques al vol també es pot equivocar, inventar o amplificar bulls a una velocitat inassumible.
Des del 2022, amb l'obertura de Xat GPT al públic, la IA generativa ha accelerat un canvi cultural: ara qualsevol pot produir textos, imatges, veus o vídeos sintètics amb resultats sorprenents. En paral·lel creix un dubte raonable: quan llegim un article, mirem un vídeo o escoltem un àudio, què hi ha darrere, un humà o un algorisme? I encara més important: el que s'afirma és cert? La resposta honesta és que distingir-ho s'està tornant més difícil, i això exigeix alfabetització mediàtica, verificació i esperit crític.
Un salt el 2022 que ens va canviar la conversa
L'any 2022 va marcar un abans i un després: primer van aparèixer generadors d'imatges capaços de crear quadres i fotos que semblaven extrets d'una càmera, i després al novembre va arribar un chatbot obert al públic que va conquistar milions d'usuaris en dies. Aquest accés directe a les eines —abans reservades a programari especialitzat— ens va permetre experimentar i entendre la potència de la IA generativa, i en va permetre a molts crear un chatbot amb ChatGPT API, però també va normalitzar la idea que la simulació pot semblar veritat sense ser-ho.
Aquest auge va venir acompanyat de demostracions creatives: poemes, novel·les llampec o articles que, amb un parell d'indicacions, sortien llestos per publicar. La sensació de màgia amaga una qüestió tècnica: aquests sistemes són, en essència, models probabilístics que prediuen la paraula més probable que segueix una altra. No “comprenen” com un humà; generen el més plausible; la seva memòria i límits de tokens en condicionen la resposta.
La popularitat d'aquestes eines ha obert la porta a escenaris que oscil·len entre allò simpàtic i allò inquietant. És divertit envellir una foto per veure com serem en 20 anys o clonar la veu d'un amic per fer una broma. Però quan aquesta manipulació toca l'esfera pública –política, periodisme, justícia, sanitat– el joc canvia. La confiança social és a la balança.
Ja ho vivim amb campanyes molt comentades, com l'anunci que va ressuscitar Lola Flores mitjançant tècniques de deepfake per a un espot de cervesa. La proesa tècnica va fascinar, sí, però també va fer evident que la indústria creativa, l'entreteniment i la publicitat poden invocar imatges hiperrealistes de persones que no hi són, amb un potencial narratiu enorme i un risc de confusió real si no se n'informa amb claredat.
Deepfakes, veus clonades i casos que confonen
El catàleg de manipulacions creix: aplicacions de mòbil per fer deepfakes, sistemes que clonen la veu humana i models que generen actors inexistents combinant trets de milers de cares anònimes. Les firmes de seguretat alerten de fraus que usen veus clonades per suplantar clients de banca, i la política ja ha sentit el cop; aquestes denúncies també posen en relleu els perills de fer servir el navegador de ChatGPT. Tot just dues setmanes després de la invasió russa, va circular un vídeo fals del president Zelenski trucant a les seves tropes a rendir-se. Es va desmentir ràpid, però la maniobra va exhibir el potencial per desinformar a gran escala.
En campanyes recents també hem vist muntatges amb gran impacte emocional, com ara el vídeo d'una dona en cadira de rodes que acusava una candidata nord-americana d'haver-la atropellat; va resultar ser un producte generat amb IA. I no parlem només d'imatge: proliferen àudios versemblants que posen en boca d'algú frases que mai no va dir. Com més convincent és la simulació, més fàcil resulta colar un relat fals.
Les conseqüències psicològiques no són menors. Experts en comportament digital adverteixen que l'exposició repetida a continguts manipulats provoca “falsos records”: després d'empassar-nos tres vídeos trucats, tendim a creure el quart abans que admetre que ens van enganyar. Aquesta dinàmica, units a la nostra confiança a la pantalla —mirem el mòbil per saber si plou en comptes d'abocar-nos a la finestra— alimenta una credulitat tecnològica que ens torna més vulnerables.
Mirant al futur, veus com la de la divulgadora Silvia Leal anticipen que la immersió en entorns virtuals intensius (metavers) farà encara més complicada la distinció entre experiència i ficció. Allí no només veurem, “viurem” escenes generades, i reconèixer que la nostra vivència se sostenia en una mentida serà, per a molts, particularment difícil de pair.
El que diu la ciència: creences vs fets als models de llenguatge
Un estudi recent de Stanford publicat a Nature va posar el dit a la nafra: els models de llenguatge fallen de manera sistemàtica en distingir entre el que una persona creu i el que veritablement és un fet. En proves amb unes 13.000 preguntes, la precisió d'alguns sistemes es va desplomar en avaluar creences en primera persona: per exemple, un model passava de fregar el 98% a quedar-se al voltant del 64%, i un altre queia de més del 90% al voltant del 14% en aquest tipus de judicis epistèmics.
Quan les creences apareixien en tercera persona, la cosa millorava (al voltant del 95% en models recents), cosa que suggereix un biaix d'atribució: a la màquina li costa entendre la diferència entre “jo crec” i “jo sé” quan qui parla és el protagonista. Per a un humà, la distinció és intuïtiva: “Crec que demà plourà” comunica incertesa; “Sé que la Terra gira al voltant del Sol” sona a fet establert.
Les implicacions pràctiques són enormes: diagnòstic mèdic (“crec que tinc càncer”), avaluacions de salut mental, anàlisis jurídiques, periodisme, educació o assessorament financer. Distingir entre convicció subjectiva i veritat objectiva és crucial, i fallar-hi multiplica el risc d'errors amb impacte social. Els autors de l'estudi —que van avaluar models com GPT-4, DeepSeek R1, o1, Bessons 2, Claude-3 o Flama-3— demanen millores urgents abans de desplegar-los en àmbits on les distincions epistèmiques importen de debò.
Hi ha matisos positius: els models han millorat amb el temps en verificació directa d'afirmacions factuals (per exemple, del salt entre GPT-3 i versions posteriors), però aquesta progressió no evita que sovint ofereixin rutes de raonament inconsistents. Poden trobar la resposta correcta i, tot i així, justificar-la amb explicacions contradictòries, més properes a una cerca superficial de patrons que a una comprensió sòlida.
Serveixen els chatbots com a verificadors? Lliçons de les seves ensopegades
Durant pics de tensió —com el conflicte recent entre l'Índia i el Pakistan— molts usuaris van recórrer a chatbots integrats en xarxes socials per comprovar vídeos virals. L'experiència va ser desoladora: respostes errònies, invencions i seguretat injustificada; l'acumulació de casos evidencia els . Un assistent va identificar com a atac amb míssils un vell vídeo de l?aeroport de Khartum; altrament, un incendi al Nepal es va presentar “probablement” com a resposta militar pakistanesa. La confiança cega en aquestes eines, sense verificació humana, és una recepta per al desastre.
Organitzacions com NewsGuard han documentat que diversos dels principals chatbots repeteixen desinformació —incloses narratives pro-Kremlin—, i un estudi del Tow Center (Universitat de Columbia) va trobar que són “dolents” rebutjant preguntes que no poden respondre amb precisió, optant per contestacions especulatives o incorrectes al seu lloc.
Hi ha exemples vívids: en consultar un chatbot per una imatge d'una dona generada per IA, va confirmar la seva suposada autenticitat i va inventar dades sobre la seva identitat i el lloc on es va fer; en un altre episodi, un vídeo d'una “anaconda gegant” a l'Amazones va ser validat com a real, fins i tot citant falses expedicions científiques. Més tard, verificadors van demostrar que tot era fabricat amb IA.
El problema s'agreuja perquè molta gent està reemplaçant el cercador tradicional per chatbots per informar-se o confirmar fets, just quan algunes plataformes han reduït programes de verificació externa i han traslladat el pes a mecanismes comunitaris. Sense context, sense traçabilitat i sense reconèixer-ne els límits, els assistents d'IA poden donar respostes sesgadas o manipulades. Fins i tot s'han reportat “modificacions no autoritzades” que empenyen el sistema cap a narratives extremes; a la pregunta de qui va poder alterar les instruccions, un bot va arribar a assenyalar el seu propi promotor com a “culpable més probable”.
Especialistes en verificació avisen: els assistents poden “al·lucinar” o esbiaixar respostes quan programadors humans retoquen deliberadament les seves guies. En assumptes sensibles, aquest ajustament previ pot forçar contestacions preautoritzades que distorsionen la realitat. La moralitat és clara: els chatbots no són, ara com ara, una font fiable de verificació de notícies darrera hora.
Política, societat i psicologia: el còctel perfecte per a la confusió
La mentida no va néixer amb el primer bit, però internet la va disparar perquè veritat i falsedat competeixen a la mateixa pantalla. El 2017, una consultora tecnològica va estimar que la meitat del contingut a la xarxa seria fals a curt termini; potser no estem en aquest punt exacte, però les fake news s'han multiplicat tant que alguns parlen d'una autèntica religió de l'engany. Després de la pandèmia, aquest fenomen es va intensificar.
Hi ha precedents judicials que marquen límits. Un tribunal espanyol va dictar la primera condemna a un usuari que va difondre una mentida sobre menors estrangers: un precedent important, encara que els experts admeten que és impossible perseguir totes les mentides que s'aboquen en línia. Per això molts proposen centrar esforços en el receptor —educació i pensament crític— més que a l'emissor, sense deixar d'exigir a les plataformes que assumeixin responsabilitats.
La digitalització meteòrica ha canviat els nostres hàbits: mirem el mòbil abans que la finestra, i si el que veiem fora no coincideix amb l'app, tendim a creure a la pantalla. Filòsofs de la ciència adverteixen d'aquesta transferència de confiança del que és humà al tècnic i del risc de normalitzar una cultura en què tot es pot interpretar com a mentida o, pitjor, com a veritat innegociable. Viure atrapats entre la credulitat absoluta i la desconfiança total ens fa manipulables.
També hi ha una dimensió política inquietant: els anomenats “fets alternatius” i la manipulació de masses amb narratives fabricades han guanyat terreny. Pensadors i escriptors recorden que mai no va ser tan fàcil mentir ni la mentida va ser tan perillosa. Com amb les armes: antany una espasa matava un home; avui tenim capacitat —figurada i literal— per arrasar-ho tot.
Alfabetització mediàtica i trucs pràctics per no picar
La millor vacuna contra la desinformació és educar: ciutadania i periodistes necessiten formació per identificar enganys, avaluar fonts i entendre com funciona la IA. La meitat de l'alumnat de Secundària, segons una investigació, no distingeix una falsa notícia d'una inventada. És urgent ensenyar-los —i ensenyar-nos— a mantenir-la alerta emocional: si una peça t'indigna o et meravella, respira, no la comparteixis encara.
Un clàssic que mai falla: cerca diverses fonts fiables, comprova dates i context, i sospita de continguts que et demanen “creure” sense proves. Quan els temes estan en calent, el periodisme seriós triga: reportatges, comprovacions, testimonis, peritatges. La verificació requereix temps, i els mentalls juguen precisament amb la immediatesa.
Hi ha eines que aporten valor. Check by Meedan ofereix un flux tipus xat per enviar continguts i rebre una anàlisi que classifica si estan a l'esfera del fals, enganyós o veritable, a més de revisar imatges i textos en temps real. The Factual avalua la credibilitat de milers d'històries al dia mitjançant l'anàlisi de l'historial del medi, les fonts esmentades i la trajectòria de l'autor, i torna un índex per calibrar la fiabilitat.
També és útil recordar que la IA no pot trucar a una font, estar al lloc dels fets ni contrastar com ho fa un humà. Hi ha avenços interessants —fins i tot en missatgeria com WhatsApp es treballa en funcions creatives amb IA, com a imatges de perfil generades—, però això no equival que ens puguin dir si alguna cosa és certa. Algunes aplicacions, per exemple, ja adverteixen en el seu codi de conducta: "no facis servir aquestes eines per generar molèsties; sigues respectuós". La veracitat, per ara, continua sent un assumpte humà.
Un altre front molt seriós és el dels “falsos nus” de menors generats amb IA. A més a més de l'impacte emocional devastador, hi ha conseqüències legals rellevants: produir o difondre aquest material no és un joc, és un delicte. L'alfabetització digital també consisteix a conèixer el marc jurídic i entendre que la tecnologia no neutralitza la responsabilitat.
Periodisme, marques i el paper de les plataformes

Iniciatives com l'experiència infogràfica presentada per la Fundació Gabo, la FLIP i Consell de Redacció a la Fira del Llibre de Bogotà busquen explicar de manera visual com operen la IA i la desinformació. El director, Mario Tascón, recorda que el 2022 va ser un punt d'inflexió: primer van arribar les imatges generatives que “no sabíem com estaven fetes” i després un chatbot que qualsevol podia provar, molt més ràpid que altres plataformes socials. Entendre aquesta obertura massiva ajuda a explicar per què avui és tan difícil distingir veritat de mentida.
Tascón insisteix en dues idees: la ciutadania necessita alfabetització mediàtica i el periodisme ha de sofisticar les seves eines de verificació, perquè la simulació cada cop és més perfecta. A més, subratlla que els models de llenguatge construeixen frases calculant quina paraula és més probable a continuació; no és “intel·ligència” en el sentit humà, encara que ho sembli. Per això convé fer servir la IA com a assistent, però no donar per cert tot allò que produeix.
Pel que fa a l'automatització, algunes tasques mecàniques se substituiran (per exemple, certes locucions), però reportar, ser testimoni i construir relats complexos des del terreny continua lluny de l'abast d'una màquina. Alhora, les marques periodístiques recuperen pes: que alguna cosa no aparegui en determinats mitjans —o aparegui per assenyalar que és fals— hauria d'encendre senyals d'alerta al públic.
Les plataformes, per la seva banda, no poden mirar cap a una altra banda: s'han de responsabilitzar del que circula. Hi ha eines per detectar enganys; aplicar-les no és opcional quan el dany social potencial és alt. Decisions com reduir la verificació externa i confiar només en mecanismes comunitaris poden deixar buits que els bulls exploten amb facilitat. La rendició de comptes és part del disseny.
Autoritat, influència i confiança: una analogia útil
Curiosament, el que passa amb la desinformació s'assembla a la dinàmica del lideratge sense autoritat formal a les organitzacions. Qui ha passat de col·laborar individualment a gestionar equips sap que el càrrec dóna poder limitat: la clau és a la credibilitat, les relacions i la capacitat dinfluir sense imposar. Traslladat a l'ecosistema informatiu, no n'hi ha prou amb “ordenar” l'audiència que no crea fal·lus; cal construir confiança i xarxes de cooperació amb periodistes, verificadors, plataformes i ciutadania.
Algunes lliçons serveixen com a guia: les organitzacions (i les xarxes) són inherentment polítiques, amb prioritats en tensió; el poder neix de la reputació, l'experiència i la visibilitat tant com del rol; i la credibilitat s'assenta en tres preguntes: vols fer el que és correcte?, saps què és el que és correcte?, ho pots dur a terme? Si la resposta no és sí, la influència és esmunyedissa. Mapejar interdependències —qui et pot ajudar, qui et pot bloquejar i qui depèn de tu— i posar-se a les sabates de l'altre fonamenta la confiança mútua.
Des d'aquí, la influència no és per “sortir-se amb la seva” sinó per generar victòries compartides: projectes que alinein objectius i redueixin incentius per desinformar. En el terreny de la IA i els continguts, això significa alinear mitjans, acadèmia, societat civil i empreses tecnològiques en protocols oberts, auditories i estàndards clars.
Què podem fer ja (persones i organitzacions)
Per al dia a dia, convé tenir un kit bàsic: desconfia del que t'enfada o t'enlluerna, cerca pistes òbvies (errors de context, metadades, fonts anònimes i “exclusives” dubtoses), i si és possible verifica amb el protagonista. Moltes vegades, una trucada o un correu són suficients per desmuntar una butlla. En cas de vídeos i àudios, analitza ombres, reflexos, artefactes i respiracions; la IA sol fallar en detalls fins. I recorda: un chatbot no és un àrbitre de la veritat.
- Fes servir eines de verificació (per exemple, Check by Meedan) per classificar i contrastar peces dubtoses, i complementa amb cercadors inversos d'imatges i revisors de metadades.
- Consulta índexs de credibilitat com El fet, revisa la qualitat de les fonts i l'historial dels autors abans de donar-ne difusió.
- Si detectes un bitllet, no el comparteixis “per criticar-lo” sense context: enllaça al desmentiment i explica breument per què és fals per tallar-lo propagació.
- Exigeix a plataformes i mitjans transparència sobre les polítiques de moderació, procediments de correcció i ús d'IA en la generació de continguts.
També és moment de repensar l'educació formal: incloure una assignatura que expliqui el “backstage” de les falsedats –com es fabriquen deepfakes, com es clona la veu, com es manipulen dades– enfortiria el múscul del judici crític, especialment entre els adolescents. I, paradoxalment, una de les millors eines de verificació continua sent la més humana: parlar cara a cara, preguntar i cercar la confirmació directa de qui suposadament va dir o va fer alguna cosa.
El repte no és tecnològic sinó cultural. Les màquines ens ajuden, però no senten, no veuen ni confirmen com nosaltres. La IA no distingeix, per si sola, veritat de mentida; només ajusta probabilitats. Per conviure-hi sense naufragar, cal recuperar la confiança en els processos periodístics, reforçar l'educació mediàtica i establir regles de joc clares per a plataformes i desenvolupadors. Només així podrem navegar un entorn on l'aparença de debò ja no garanteix que ho sigui.
Redactor apassionat del món dels bytes i la tecnologia en general. M'encanta compartir els meus coneixements a través de l'escriptura, i això és el que faré en aquest bloc, mostrar tot el més interessant sobre gadgets, programari, maquinari, tendències tecnològiques, i més. El meu objectiu és ajudar-te a navegar pel món digital de forma senzilla i entretinguda.