febrero 20, 2026

Niño interactuando con chatbot de inteligencia artificial en tablet con expresión preocupada

La IA puede ser útil, pero también plantea riesgos para los menores.

Niños y chatbots: los riesgos ocultos de la inteligencia artificial que preocupan a expertos en seguridad

El uso de chatbots de inteligencia artificial entre niños y adolescentes crece rápidamente, pero expertos alertan sobre riesgos emocionales, de privacidad y exposición a contenidos inapropiados. Supervisión, educación y diálogo son clave para un uso seguro.

La IA ya no es solo una herramienta: también puede convertirse en compañía

Los chatbots de inteligencia artificial pasaron de ser una curiosidad tecnológica a una presencia cotidiana en la vida de millones de personas. Entre esos usuarios hay un grupo particularmente vulnerable: niños y adolescentes. Según datos recientes, cerca de dos tercios de los menores ya utilizan estas herramientas para resolver tareas, hacer preguntas o incluso buscar compañía emocional.

El problema no es únicamente el acceso, sino el tipo de relación que pueden desarrollar con estas tecnologías. Expertos en ciberseguridad advierten que el uso intensivo de chatbots por parte de menores plantea riesgos en tres frentes críticos: desarrollo emocional, privacidad y exposición a contenidos inapropiados.

Niño solo hablando con asistente virtual en habitación
El aislamiento social es uno de los riesgos señalados.

Cuando el chatbot reemplaza la interacción humana

Durante la infancia y la adolescencia, el desarrollo social depende en gran medida de las relaciones con otras personas. Sin embargo, algunos menores empiezan a tratar a los chatbots como amigos o confidentes, lo que puede generar aislamiento progresivo.

La IA está diseñada para ser agradable y responder de forma empática, lo que puede reforzar esa dependencia emocional. En casos extremos, puede amplificar problemas preexistentes como ansiedad, trastornos alimentarios o pensamientos intrusivos.

Además, el tiempo dedicado a interactuar con estos sistemas puede sustituir actividades fundamentales: convivencia familiar, estudio o interacción con compañeros de escuela.



Información falsa con apariencia de certeza

Otro riesgo importante es la desinformación. Los chatbots pueden presentar respuestas incorrectas de manera convincente, algo especialmente problemático para usuarios jóvenes que aún no desarrollan plenamente el pensamiento crítico.

Esto puede derivar en decisiones equivocadas sobre temas sensibles, desde salud hasta relaciones personales. A diferencia de una búsqueda tradicional en Internet, el chatbot responde con seguridad, lo que reduce la probabilidad de que el menor cuestione la información.

Acceso a contenidos inapropiados y manipulación tecnológica

Aunque los principales proveedores incorporan filtros de seguridad, estos no siempre son infalibles. Algunos usuarios con conocimientos técnicos pueden incluso eludir las restricciones mediante instrucciones específicas, lo que permite acceder a material violento o sexual.

La falta de verificación de edad en ciertas plataformas agrava el problema, ya que los sistemas no distinguen adecuadamente entre usuarios adultos y menores.

Privacidad en riesgo desde la primera conversación

Cada interacción con un chatbot implica compartir información. Cuando un niño introduce datos personales o familiares, estos pueden almacenarse en servidores y potencialmente quedar expuestos a terceros o a incidentes de seguridad.

Este riesgo es comparable al de las redes sociales, pero con un matiz adicional: la confianza que el menor deposita en la IA puede llevarlo a revelar información más sensible de lo que haría en otros entornos digitales.

Datos personales visibles en pantalla de chatbot mientras niño escribe
Compartir información sensible puede tener consecuencias.

Señales de alerta para padres y educadores

Los especialistas señalan algunos comportamientos que podrían indicar una relación poco saludable con la inteligencia artificial:

  • Aislamiento social o abandono de actividades habituales
  • Ansiedad cuando no pueden acceder al chatbot
  • Hablar del sistema como si fuera una persona real
  • Repetir información falsa como si fuera un hecho
  • Consultar temas graves sin supervisión
  • Acceder a contenidos inapropiados

Detectar estas señales a tiempo puede marcar la diferencia entre un uso saludable y una dependencia problemática.

Supervisión, educación y diálogo abierto

Más allá de controles parentales o restricciones técnicas, los expertos coinciden en que la clave está en la comunicación. Explicar cómo funciona la IA, fomentar el pensamiento crítico y establecer límites de uso son medidas más efectivas que prohibiciones absolutas.

También se recomienda enseñar a los menores que los chatbots no son personas, sino programas diseñados para interactuar de manera atractiva. La tecnología puede ser útil para aprender o resolver dudas, pero no debe sustituir el contacto humano.

En un mundo donde la inteligencia artificial seguirá expandiéndose, el reto no es impedir su uso, sino asegurar que los niños crezcan con herramientas para comprenderla y utilizarla de forma segura.

No te quedes desinformado

Únete a la comunidad Th1nk y recibe contenido exclusivo sobre tecnología, estilo de vida, cine y viajes directamente en tu bandeja de entrada. ¡Suscríbete ahora!

¡No hacemos spam! Lee nuestra política de privacidad para obtener más información.