A Steve Wozniak no le gusta la IA: razones, miedos y matices

Última actualización: 26/03/2026
Autor: Isaac
  • Steve Wozniak critica la IA actual por su falta de fiabilidad, comprensión humana y matices emocionales.
  • Considera que los modelos generan textos “demasiado secos y perfectos”, sin la chispa creativa e imperfecta del trabajo humano.
  • Advierte sobre la dependencia, la pérdida de pensamiento crítico y los riesgos de desinformación y deepfakes.
  • Defiende una IA más transparente, con regulación fuerte y un papel claro como herramienta de apoyo, no como sustituto de las personas.

Steve Wozniak e inteligencia artificial

En varias entrevistas recientes, desde cadenas como FOX Business y CNN hasta charlas públicas, Wozniak ha dejado claro que “no es fan” de herramientas como ChatGPT o Claude y que apenas las usa. No porque la IA no sirva para nada, sino porque considera que hoy está muy lejos de ofrecer la fiabilidad, la comprensión emocional y la chispa creativa que él espera de una tecnología que aspire a llamarse “inteligente”.

Quién es Steve Wozniak y por qué importa su opinión sobre la IA

Antes de entrar en su visión sobre la IA, conviene recordar que Wozniak no es un opinador cualquiera: es uno de los grandes padres de la informática personal moderna. Como ingeniero electrónico e inventor, fue clave en el desarrollo de los primeros ordenadores de Apple en los años 70, el Apple I y el Apple II.

Mientras Steve Jobs se centraba más en la estrategia y el negocio, Wozniak se dejaba la piel diseñando y construyendo las máquinas. Él mismo cuenta que en su tiempo libre dibujaba esquemas de ordenadores por pura pasión, cuando muchos ingenieros aún pensaban en radios o televisores, no en computadoras personales.

Su sueño, según ha explicado en numerosas charlas, era tener un ordenador antes que una casa. Esa obsesión técnica y creativa es la que acabó dando forma a la primera generación de ordenadores Apple, que marcaron un antes y un después en la historia de la tecnología de consumo.

En 1985 se desvinculó de la compañía para “poder ser una persona normal”, tal y como ha relatado en entrevistas. No le atraía la idea de vivir atado a la riqueza y la presión corporativa. Desde entonces se ha dedicado a emprender por su cuenta, creando, por ejemplo, uno de los primeros mandos a distancia universales programables, y ha reforzado su faceta filantrópica, donando buena parte de su fortuna a museos, fundaciones y proyectos educativos.

Todo esto hace que sus opiniones sobre la tecnología actual, incluida la IA, tengan un peso especial en el sector. Wozniak no habla desde el miedo al cambio, sino desde la experiencia de alguien que ayudó a desencadenar la revolución que hoy vivimos.

“No soy partidario de la IA”: la falta de fiabilidad y la sequedad de las respuestas

En el programa “The Claman Countdown” de FOX Business, Wozniak fue tajante: “No soy partidario de la IA”. Reconoció que ha probado distintas herramientas basadas en modelos de lenguaje, pero dejó claro que no las utiliza demasiado en su día a día porque no le inspiran confianza.

Uno de sus principales reproches es la falta de precisión y fiabilidad en las respuestas. Comentó que suele plantear preguntas en las que una sola palabra es clave para marcar el matiz o la dirección de lo que quiere saber. Sin embargo, la IA responde con párrafos largos, aparentemente bien escritos, que tocan el tema, pero se desvían del punto exacto que le interesa.

Según él, eso genera la sensación de estar hablando con una especie de muro: la máquina entiende el contexto general, pero ignora el matiz importante. El resultado son respuestas que se perciben correctas en apariencia, pero que no responden de forma directa y clara a la petición del usuario.

Wozniak insiste en que lo que busca es “contenido confiable en todo momento”. Esa exigencia no se limita a datos correctos, sino también a que la IA sea honesta sobre sus propias limitaciones, que no invente información ni adopte un tono de autoridad cuando en realidad está “rellenando huecos” con suposiciones.

En varias ocasiones ha reconocido que se siente “muy decepcionado” con muchas de las respuestas que recibe de estos sistemas. No solo por lo que dicen, sino por cómo lo dicen: demasiado perfectas en la superficie, pero sin alma ni comprensión real detrás.

La crítica a la falta de emociones, experiencia y comprensión humana

Otra de las ideas en las que Wozniak vuelve una y otra vez es que la IA actual no tiene vida vivida ni experiencia humana propia. Los modelos de lenguaje se entrenan con cantidades masivas de texto, pero no han sentido miedo, alegría, pérdida, empatía o responsabilidad moral.

  Las curiosidades más sorprendentes sobre Apple que no conocías

En una entrevista con CNN, explicó que el gran problema es que estos sistemas “no han vivido una vida humana”, por lo que les cuesta captar los matices de la forma en la que hablamos, nos relacionamos o contamos historias. Para él, entender realmente a otra persona implica haber pasado por experiencias parecidas, haber cometido errores, haber aprendido lecciones vitales.

Wozniak lo expresa de manera muy clara: quiere saber que “hay algún ser humano como yo que está pensando” al otro lado, que comprende lo que podría estar sintiendo y que es capaz de interpretar el tono, la ironía, los dobles sentidos o incluso los silencios en una conversación.

Al comparar a la IA con un ser humano, subraya que las personas tienen emociones, afectos y deseos, como querer ayudar a otros o esforzarse por ser buenas personas. En su opinión, estos rasgos son parte esencial de lo que entendemos como verdadera inteligencia, y hoy por hoy los sistemas de IA no muestran señales de poseer nada parecido.

Por eso, cuando le preguntan si cree que la IA llegará a sustituir a los humanos en algunos aspectos, responde que la tecnología siempre mejora, pero que aún no entendemos lo suficiente cómo funciona el cerebro humano como para recrearlo de manera completa en una máquina. No descarta que en el futuro pueda haber avances sorprendentes, pero insiste en que ahora mismo no ve indicios claros de que estemos cerca de replicar esa mezcla de razón, emoción y ética.

Textos “demasiado secos y perfectos”: el valor de la imperfección humana

Wozniak también se ha mostrado muy crítico con el estilo de los contenidos generados por IA. Señala que, cuando lee textos creados con estos modelos, a menudo los percibe “demasiado secos, demasiado perfectos”. Para él, esa perfección formal es precisamente lo que les quita encanto.

Lo que echa en falta es la imperfección propia del trabajo humano: pequeñas rarezas en la forma de expresarse, giros personales, cambios de tono inesperados, errores que revelan carácter. Considera que muchos textos generados por IA tienen una corrección casi quirúrgica, pero carecen de esa chispa creativa que nos hace conectar con quien escribe.

Esta crítica se ha extendido también a otros campos creativos, como los videojuegos. Wozniak se hace eco de debates recientes en torno a tecnologías como DLSS 5 de Nvidia, que prometen resultados espectaculares, pero que podrían llevar a depender demasiado de algoritmos para tareas que antes exigían soluciones ingeniosas por parte de artistas y desarrolladores.

En su visión, existe el riesgo de que, si dejamos que la IA resuelva de forma automática demasiados problemas técnicos o creativos, acabemos perdiendo esa capacidad de improvisar soluciones brillantes ante las limitaciones. La “magia” de muchos productos tecnológicos y artísticos ha venido precisamente de gente que tuvo que ingeniárselas con pocos recursos.

Por eso insiste en que, para él, la tecnología debe tener un papel de herramienta pura. La creatividad, la imaginación y la voz propia deben seguir siendo humanas. La IA puede ayudar a pulir, sugerir o acelerar procesos, pero no debería reemplazar la esencia del trabajo creativo.

Dependencia, pensamiento crítico y la “salida fácil”

Otro punto que preocupa mucho a Wozniak es el efecto que la IA puede tener en nuestros hábitos mentales y en nuestra autonomía. Advierte que, cuanto más dependemos de sistemas automatizados para informarnos, decidir o producir contenido, más fácil es que perdamos la costumbre de pensar por nuestra cuenta.

En distintas apariciones públicas ha señalado que “te vuelves dependiente de ello”. Es decir, cuando la IA empieza a hacer tareas por nosotros de forma casi invisible, podemos caer en la tentación de delegarle todo lo que requiera esfuerzo mental, desde redactar un texto hasta sacar conclusiones de un informe o interpretar datos.

En una charla en Barcelona, Wozniak lo ligó directamente a la pérdida de pensamiento crítico. Comentó que, si las personas empiezan a presentar como propios los resultados generados por IA sin cuestionarlos, sin revisarlos y sin añadir su propio criterio, se corre el riesgo de que se convierta en la “salida fácil” para todo.

  Gemini llega a Google TV Streamer: así cambia tu tele y cómo activarlo

Para él, la clave está en que la IA sea usada como apoyo, no como sustituta del juicio humano. Cree que debería fomentarse que la gente interprete la información que recibe, que contraste fuentes, que dude de lo que ve, especialmente en un contexto donde proliferan los deepfakes, las noticias falsas y los contenidos manipulados.

En este sentido, Wozniak ha defendido que las herramientas de IA incluyan mecanismos claros de transparencia, como indicar de dónde han extraído cada fragmento de información o qué fuentes han influido en una respuesta concreta. Considera que eso ayudaría a los usuarios a valorar si un contenido es útil, fiable o si merece ser puesto en duda.

La postura de Wozniak frente al auge de ChatGPT, Apple Intelligence y otros sistemas

La posición crítica de Wozniak contrasta con el entusiasmo de muchos líderes tecnológicos actuales. Mientras Jensen Huang (Nvidia) o Sam Altman (OpenAI) defienden una visión de futuro en la que la IA lo hará prácticamente todo por nosotros, él mantiene una actitud mucho más cautelosa.

Aunque Apple se ha subido a la ola con fuerza y está desarrollando su propio ecosistema bajo la marca Apple Intelligence, Wozniak ha dejado claro que, si siguiera en la compañía, su enfoque sería distinto. Considera que la IA, tal y como está planteada hoy, “tiene demasiados defectos” como para abrazarla sin reservas.

Ha comentado que, cuando le preguntas a una IA por la diferencia entre dos objetos, puede darte una explicación larga, detallada y bastante correcta. Pero si haces la misma pregunta a un ser humano, es muy posible que te responda con una historia, una anécdota o un ejemplo vivido, en lugar de limitarse a enumerar datos. Y es precisamente ese componente narrativo y emocional el que él valora.

También ha recordado que no es la primera vez que advierte de los posibles efectos de la automatización. Ya en 2011 señaló que cada vez que inventamos un ordenador o un sistema que hace algo por nosotros, nos vuelve un poco menos relevantes para esa tarea concreta. En 2018 rebajó algo el tono, apuntando que muchas veces llamamos “IA” simplemente a lo último que un ordenador es capaz de hacer en cada momento.

Sin embargo, con la llegada de los grandes modelos de lenguaje y el boom de los chatbots, ha recuperado un punto de escepticismo. Ha firmado, junto a otras figuras como Elon Musk, cartas abiertas pidiendo pausar el desarrollo de los sistemas más potentes, alertando de su impacto en el empleo, la democracia y la desinformación.

Una IA “que no piensa”: big data bien presentado pero sin mente propia

En algunas entrevistas recientes, Wozniak ha resumido su visión con una frase contundente: “La actual IA es tonta, no piensa”. Con esto no quiere decir que los modelos sean inútiles, sino que, a su juicio, los estamos elevando a una categoría que no les corresponde.

Subraya que estas herramientas no son mentes conscientes, sino modelos de aprendizaje profundo que se alimentan de big data. Lo que hacen, en esencia, es calcular probabilidades para decidir qué palabra, imagen o fragmento viene después, en función de patrones estadísticos aprendidos durante el entrenamiento.

Por eso define sus resultados como “big data regurgitado con más o menos gracia”. Son capaces de producir respuestas que suenan humanas, pero en realidad solo recombinan ejemplos y estructuras que han visto miles de veces, sin entender ni el significado profundo de lo que dicen ni las consecuencias de sus respuestas.

En sus propias pruebas, Wozniak comenta que muchos de los textos generados le resultan planos, aburridos y poco humanos. Falta espontaneidad, capacidad de sorpresa genuina y, sobre todo, responsabilidad personal por lo que se afirma, algo que para él es imprescindible en cualquier comunicación significativa.

A pesar de todo, también reconoce que está ilusionado por ver hasta dónde puede llegar la tecnología. Admite que la IA está creciendo muy rápido y que ese ritmo de avance es precisamente su mayor fortaleza. Confía en que, con el tiempo, algunos de sus defectos actuales puedan mitigarse, siempre que el desarrollo vaya acompañado de una regulación robusta.

Riesgos, regulación y transparencia: lo que Wozniak pide para la IA

Wozniak no se limita a criticar; también propone cambios concretos. Una de sus peticiones más reiteradas es que la IA sea mucho más transparente. Ha defendido que los sistemas revelen siempre la fuente de cualquier frase, dato o afirmación que presenten.

  Modo Copilot en Edge: así es la apuesta de Microsoft por la IA en la navegación web

En su opinión, si los usuarios pudieran ver claramente de dónde sale cada trozo de información, les resultaría más fácil evaluar su fiabilidad, detectar sesgos o descubrir cuándo se está utilizando material de dudosa procedencia. Esto también ayudaría a enfrentar problemas como la difusión de noticias falsas o el uso de contenidos protegidos por derechos de autor sin permiso.

Además, Wozniak considera que la IA debería ser, en la medida de lo posible, de código abierto. Cree que una mayor apertura permitiría auditorías independientes, mejoraría la seguridad y reduciría la concentración de poder en manos de unas pocas grandes tecnológicas que controlan los modelos más avanzados.

También ha alertado sobre amenazas muy concretas, como los deepfakes y otras formas de manipulación audiovisual. Advierte de que estos usos pueden hacer mucho daño a la confianza pública, facilitar estafas y complicar aún más la tarea de distinguir lo real de lo fabricado.

Por todo ello, insiste en que los gobiernos y los reguladores deben moverse con rapidez para establecer normas claras y exigentes. No tanto para frenar la innovación, sino para garantizar que la IA se utilice de forma responsable, que se pueda identificar fácilmente qué contenido está generado por máquinas y que siempre haya alguien respondiendo por los daños que pueda causar.

La gran burbuja, el empleo y el futuro del sector

El contexto económico también forma parte del debate. En los últimos años se ha hablado mucho de si estamos ante una “burbuja de la IA” que podría explotar. Empresas como Nvidia han disparado su valor en bolsa hasta niveles que, según algunos analistas, tardarían décadas en justificarse con beneficios reales.

Ejecutivos como el CEO de Baidu, Robin Li, han llegado a afirmar que el 99% de las compañías de IA terminarán desapareciendo, dejando un mercado dominado por unas pocas gigantes como OpenAI, Google, Microsoft o grandes conglomerados chinos. Esto plantea un escenario en el que un puñado de actores controlaría la infraestructura básica de la inteligencia artificial global.

En paralelo, existe preocupación por el impacto en el empleo. Numerosos informes señalan que la IA podría eliminar o transformar miles de trabajos, especialmente en tareas repetitivas o que puedan automatizarse fácilmente. Al mismo tiempo, se argumenta que surgirán nuevos puestos relacionados con el diseño, supervisión y mantenimiento de estos sistemas.

Encuestas recientes muestran que, incluso dentro del sector tecnológico, hay bastante escepticismo. Más de la mitad de los trabajadores de este ámbito consideran que la IA está sobrevalorada o que, al menos, no se han materializado aún tantos casos de uso transformadores como prometen los discursos de marketing.

Wozniak comparte parte de estas dudas. Cree que estamos todavía en una fase muy temprana de esta tecnología, comparable a los primeros años de internet, cuando era difícil imaginar en qué se convertiría décadas después. No descarta que la IA del futuro sea radicalmente distinta a la actual, pero insiste en que hay que vigilar muy de cerca cómo se reparte el poder y quién se beneficia realmente de esta revolución.

En conjunto, la visión de Steve Wozniak sobre la inteligencia artificial combina admiración por el avance tecnológico con una desconfianza muy marcada hacia lo que hoy pueden hacer los modelos y, sobre todo, hacia cómo los estamos utilizando. Para él, la IA es una herramienta potentísima, pero sigue sin pensar, sin sentir y sin asumir la responsabilidad que sí tenemos los humanos, así que su mensaje es claro: aprovecharla, sí, pero sin dejar que sustituya a nuestra creatividad, nuestras decisiones y nuestro criterio propio.

Apple-1 the Most Expensive Apple Product
Artículo relacionado:
The Most Costly Apple Product Ever Offered