La IA ya no es solo una herramienta: también puede convertirse en compañía
Los chatbots de inteligencia artificial pasaron de ser una curiosidad tecnológica a una presencia cotidiana en la vida de millones de personas. Entre esos usuarios hay un grupo particularmente vulnerable: niños y adolescentes. Según datos recientes, cerca de dos tercios de los menores ya utilizan estas herramientas para resolver tareas, hacer preguntas o incluso buscar compañía emocional.
El problema no es únicamente el acceso, sino el tipo de relación que pueden desarrollar con estas tecnologías. Expertos en ciberseguridad advierten que el uso intensivo de chatbots por parte de menores plantea riesgos en tres frentes críticos: desarrollo emocional, privacidad y exposición a contenidos inapropiados.

Cuando el chatbot reemplaza la interacción humana
Durante la infancia y la adolescencia, el desarrollo social depende en gran medida de las relaciones con otras personas. Sin embargo, algunos menores empiezan a tratar a los chatbots como amigos o confidentes, lo que puede generar aislamiento progresivo.
La IA está diseñada para ser agradable y responder de forma empática, lo que puede reforzar esa dependencia emocional. En casos extremos, puede amplificar problemas preexistentes como ansiedad, trastornos alimentarios o pensamientos intrusivos.
Además, el tiempo dedicado a interactuar con estos sistemas puede sustituir actividades fundamentales: convivencia familiar, estudio o interacción con compañeros de escuela.
- Páginas falsas de Spotify: cómo identificar este fraude digital
- Crece la alerta por “prompt hacking” en la seguridad de la IA
- Tu PC te espía ahora: un PDF puede encender tu cámara y escuchar cada palabra
Información falsa con apariencia de certeza
Otro riesgo importante es la desinformación. Los chatbots pueden presentar respuestas incorrectas de manera convincente, algo especialmente problemático para usuarios jóvenes que aún no desarrollan plenamente el pensamiento crítico.
Esto puede derivar en decisiones equivocadas sobre temas sensibles, desde salud hasta relaciones personales. A diferencia de una búsqueda tradicional en Internet, el chatbot responde con seguridad, lo que reduce la probabilidad de que el menor cuestione la información.
Acceso a contenidos inapropiados y manipulación tecnológica
Aunque los principales proveedores incorporan filtros de seguridad, estos no siempre son infalibles. Algunos usuarios con conocimientos técnicos pueden incluso eludir las restricciones mediante instrucciones específicas, lo que permite acceder a material violento o sexual.
La falta de verificación de edad en ciertas plataformas agrava el problema, ya que los sistemas no distinguen adecuadamente entre usuarios adultos y menores.
Privacidad en riesgo desde la primera conversación
Cada interacción con un chatbot implica compartir información. Cuando un niño introduce datos personales o familiares, estos pueden almacenarse en servidores y potencialmente quedar expuestos a terceros o a incidentes de seguridad.
Este riesgo es comparable al de las redes sociales, pero con un matiz adicional: la confianza que el menor deposita en la IA puede llevarlo a revelar información más sensible de lo que haría en otros entornos digitales.

Señales de alerta para padres y educadores
Los especialistas señalan algunos comportamientos que podrían indicar una relación poco saludable con la inteligencia artificial:
- Aislamiento social o abandono de actividades habituales
- Ansiedad cuando no pueden acceder al chatbot
- Hablar del sistema como si fuera una persona real
- Repetir información falsa como si fuera un hecho
- Consultar temas graves sin supervisión
- Acceder a contenidos inapropiados
Detectar estas señales a tiempo puede marcar la diferencia entre un uso saludable y una dependencia problemática.
Supervisión, educación y diálogo abierto
Más allá de controles parentales o restricciones técnicas, los expertos coinciden en que la clave está en la comunicación. Explicar cómo funciona la IA, fomentar el pensamiento crítico y establecer límites de uso son medidas más efectivas que prohibiciones absolutas.
También se recomienda enseñar a los menores que los chatbots no son personas, sino programas diseñados para interactuar de manera atractiva. La tecnología puede ser útil para aprender o resolver dudas, pero no debe sustituir el contacto humano.
En un mundo donde la inteligencia artificial seguirá expandiéndose, el reto no es impedir su uso, sino asegurar que los niños crezcan con herramientas para comprenderla y utilizarla de forma segura.

Más historias
Páginas falsas de Spotify se esconden en sitios legítimos y ponen en riesgo a usuarios y pymes en Latinoamérica
5 mitos sobre ciberseguridad que pueden ponerte en riesgo (y cómo evitarlos de una vez por todas)
Tu PC te espía ahora: un PDF puede encender tu cámara y escuchar cada palabra