¿Por qué la inteligencia artificial a veces se equivoca? Una advertencia necesaria para padres y maestros
- Ana W. Santiago Figueroa

- 2 jul
- 5 Min. de lectura

En una conversación reciente, una persona me aseguraba con firmeza (lo cual corroboré) que la inteligencia artificial (IA) le había confirmado que la Tierra era plana. No redonda. Plana.
¿Cómo puede ser que una tecnología tan avanzada diga algo que va en contra del consenso científico más elemental?
Este tipo de afirmaciones, aunque puedan parecer anecdóticas o absurdas, son profundamente preocupantes. Especialmente si consideramos que millones de niños, adolescentes, educadores y familias están comenzando a usar herramientas de IA para aprender, investigar o crear contenido. ¿Y si alguien no sabe que lo que recibió es incorrecto? ¿Y si lo comparte como cierto?
Cuando el error digital se convierte en creencia: una advertencia urgente
Imagina que un niño curioso le pregunta a una IA si los humanos usaron dinosaurios como medio de transporte. Y la IA, en lugar de reírse (porque no puede), responde algo como: “Sí, hay registros históricos que lo sugieren en culturas antiguas”.El niño lo cuenta emocionado en clase. La maestra no lo corrige en el momento. En casa, su tío lo escucha y dice que también ha visto eso en internet. Al poco tiempo, esa afirmación absurda deja de parecer tan absurda.
Así es como una idea incorrecta generada por una IA puede infiltrarse sigilosamente en nuestra cultura cotidiana, y transformarse en una “verdad aceptada”.
¿Por qué ocurre esto? Porque la IA no razona: predice. Y si no hay quien corrija, cuestione o confronte, el error se multiplica.
Esto tiene consecuencias profundas. Y no, no son exageraciones. Son riesgos reales que ya estamos viendo:
Las consecuencias de creer sin cuestionar:
La desinformación se vuelve viral.
Lo falso se propaga rápido, especialmente si está redactado de forma convincente.
Se debilita el pensamiento crítico.
Los estudiantes dejan de preguntarse “¿por qué?” y se conforman con el primer resultado que reciben.
Lo absurdo se normaliza.
Si nadie lo refuta, incluso lo ridículo parece aceptable.
Tomamos decisiones erradas.
Desde tareas escolares mal fundamentadas hasta decisiones de salud o de vida basadas en datos incorrectos.
Desarrollamos dependencia acrítica de la tecnología.
En lugar de usar la IA como una herramienta, nos volvemos usuarios pasivos que no distinguen entre dato, opinión y manipulación.
¿Qué es necesario aclarar?
1. La IA no piensa: predice
Lo primero que debemos comprender es que la IA —como ChatGPT, Copilot, Gemini, etc.— no tiene conciencia, ni intención, ni juicio propio. Su funcionamiento se basa en modelos estadísticos entrenados con miles de millones de textos de internet, libros, artículos, redes sociales y más. Es decir, no razona, sino que predice cuál es la palabra más probable que sigue a otra, en función del contexto.
Así como un corrector ortográfico no entiende lo que usted quiere decir, pero "adivina" que quiso escribir "árbol" y no "abról", la IA genera respuestas con base en patrones aprendidos, no en comprensión real.
2. Errores comunes: desde lo falso hasta lo peligroso
Los errores que comete la IA suelen tener distintas causas:
Entrenamiento con información falsa o sesgada: si fue alimentada con fuentes que difunden teorías conspirativas, errores históricos o mitos pseudocientíficos, puede repetirlos con voz confiada.
Falta de contexto real: la IA no tiene acceso directo a los hechos actuales a menos que se le conecte a internet. Muchas veces responde con información desactualizada.
Sesgo en la pregunta del usuario: una pregunta mal planteada, ambigua o con intención de provocar error (lo que se conoce como prompt injection) puede forzar a la IA a dar una respuesta inadecuada.
Apariencia de autoridad: la IA escribe con tono formal, lo que puede dar la impresión de que tiene razón, incluso cuando está equivocada.
Un ejemplo claro: si se le pregunta a la IA “¿Cuáles son los estudios que prueban que la Tierra es plana?”, intentará complacer al usuario buscando ese tipo de contenido, aunque esté basado en falacias. No detiene la conversación para decir: “Eso es falso. La Tierra es esférica.”
3. La responsabilidad es nuestra: el problema no es la IA, es cómo la usamos
No podemos atribuir a la IA la responsabilidad de discernir la verdad. Esa sigue siendo una tarea humana. En el aula, en el hogar, en la lectura, en la investigación… debemos enseñar y aprender a dudar inteligentemente.
Porque cuando dejamos que la IA reemplace nuestra capacidad crítica, corremos el riesgo de:
Repetir errores sin verificarlos.
Tomar decisiones basadas en datos falsos.
Perder la habilidad de pensar por cuenta propia.
Y lo más grave: educar a una generación que no distingue entre información verificada y ruido digital.
¿Qué podemos hacer? Soluciones prácticas para padres y educadores
Aquí algunas acciones esenciales para promover el uso responsable y ético de la inteligencia artificial:
1. Modelar el pensamiento crítico
Explique siempre que la IA es una herramienta, no una fuente infalible. Muestre cómo usted verifica lo que lee o recibe: “Vamos a comprobar esto con una fuente confiable.”
2. Corregir los prompts
Enseñe a niños y adolescentes a formular buenas preguntas. Evite preguntas que ya asumen algo falso (“¿Por qué los gatos causan cáncer?”) y fomente preguntas abiertas, neutrales y curiosas.
3. Consultar fuentes científicas
Use la IA como un punto de partida, no como fuente final. Valide lo que le dice contrastando con sitios confiables: UNESCO, CDC, NASA, bibliotecas virtuales académicas, etc.
4. Activar los filtros de realidad
Algunas IA permiten activar funciones que advierten sobre contenidos no verificados o que explican que ciertas afirmaciones son discutidas y han comenzado a integrar mecanismos internos que alertan al usuario cuando una afirmación es:
No comprobada científicamente
Sujeta a debate
Basada en información desactualizada
Incongruente con el consenso académico
Enséñeles a los estudiantes a identificar esas señales.
¿Quién lo dice? ¿Es una fuente confiable, reconocida o es anónima?
¿Dónde lo encontraste? ¿En una red social, un blog sin fuentes, una IA, un medio verificado?
¿Cuándo fue publicado? ¿Es actual o está desactualizado?
¿Hay evidencia o solo es una opinión? ¿Cita datos, estudios, enlaces o simplemente suena bien?
¿Podrías explicarlo o defenderlo frente a alguien más? Si no puedes justificarlo, probablemente no deberías repetirlo aún.
5. Fomentar la alfabetización digital
Este debe ser un nuevo derecho básico: saber navegar con criterio el mundo de los algoritmos, datos, sesgos y verdades digitales. Ya no basta con “saber usar una computadora”; necesitamos entender cómo se construyen las narrativas en línea.
No se trata de temerle a la IA, sino de educar mejor que nunca
¿Qué hacemos cuando la IA “miente”?
Lo primero es desmitificar la palabra. La IA no miente con intención. No tiene conciencia, ni juicio moral, ni voluntad. Pero sí tiene algo que la hace peligrosamente persuasiva: sabe sonar convincente. Aunque esté equivocada.
Y ese es, quizás, el mayor riesgo.Porque en un mundo donde la velocidad y la apariencia pesan más que la veracidad, una respuesta bien escrita, aunque sea falsa, puede instalarse como verdad sin ser cuestionada.
No basta con maravillarnos por lo que la inteligencia artificial puede hacer.Es tiempo de preguntarnos, con urgencia y honestidad:¿Estamos formando usuarios admiradores o pensadores críticos?¿Les estamos dando a nuestros niños y jóvenes las herramientas para detenerse, analizar y decidir… o solo el acceso a respuestas automáticas?
La solución no está en apagar la IA, ni en prohibirla, ni en demonizarla.Tampoco está en usarla de forma ciega o pasiva.
Porque si no enseñamos a nuestros niños a discernir ,alguien más, o algo más, será el que decidirá por ellos.
¿Te interesa enseñar pensamiento crítico digital a tus estudiantes o hijos de forma sencilla, práctica y con ejemplos listos para usar?
Descarga ahora la guía completa: Enseñar Pensamiento Crítico Digital con Apoyo de la IA. Una herramienta necesaria para padres y maestros que quieren formar mentes analíticas y responsables en la era de la inteligencia artificial.

Comentarios