Sugerencias
Idioma
Información de la revista
Visitas
1030
Editorial
Acceso a texto completo
Disponible online el 20 de marzo de 2026

Inteligencia Artificial Generativa en la Población Infantojuvenil: Riesgos Emergentes y Retos para la Salud Pública

Generative Artificial Intelligence and The Pediatric Population: Emerging Risks and Public Health Challenges
Visitas
1030
Marina Fernández-Andújara,
Autor para correspondencia
mfernandezan@uao.es

Autor para correspondencia.
, Joaquín González-Cabrerab, Alejandro Romeroc, Diego Hidalgod, María Angustias Salmerón-Ruize
a Faculty of Health and Life Sciences, Universitat Abat Oliba CEU, CEU Universities, Barcelona, España
b Instituto de Transferencia e Investigación. Universidad Internacional de La Rioja (UNIR), Logroño, La Rioja, España
c Fundador Cyber-Guardians.org
d Fundador OFF Movement
e Hospital Ruber Internacional, Madrid, España
Este artículo ha recibido
Información del artículo
Texto completo
Bibliografía
Descargar PDF
Estadísticas
Tablas (2)
Tabla 1. Principios éticos de la IA
Tablas
Tabla 2. Riesgos de la IAGen en la población infantojuvenil
Tablas
Texto completo
De la integración progresiva al salto cualitativo tecnológico

A lo largo del siglo XX, especialmente en sus últimas décadas, la tecnología se fue incorporando de manera progresiva a la vida cotidiana mediante dispositivos como la radio, la televisión, los ordenadores o los teléfonos inteligentes, hasta configurar un entorno caracterizado por su omnipresencia. Este proceso fue asumido de forma mayoritariamente acrítica tanto por las familias como por el sistema educativo, bajo la idea simplificada de que una mayor presencia tecnológica equivalía automáticamente a una mejor preparación educativa para el presente y el futuro. Uno de los errores estructurales de este enfoque consistió en confundir el acceso a dispositivos con el desarrollo de competencias digitales complejas. Se asumió que el uso habitual de herramientas digitales generaría de manera directa pensamiento crítico, creatividad o habilidades de resolución de problemas, sin atender a los procesos cognitivos y educativos necesarios para su adquisición real. Estas decisiones, profundamente condicionadas por intereses económicos, situaron a la población infantojuvenil no solo como usuaria de la tecnología, sino como consumidor estratégico de servicios digitales, objetivo prioritario de campañas publicitarias y de estrategias de recopilación masiva de datos personales. Mientras se promovía la adquisición de equipamiento y licencias, el análisis pedagógico, sanitario y social quedaba relegado, favoreciendo una adopción acelerada sin evaluación rigurosa de sus efectos a medio y largo plazo. Consecuentemente, este enfoque implicó que no se aplicara el principio de precaución, ampliamente utilizado en el ámbito de la salud pública, que establece la necesidad de actuar con prudencia cuando los beneficios no superan claramente los potenciales riesgos, especialmente en población vulnerable como es la infantojuvenil1.

Desde 2022, la irrupción de la Inteligencia Artificial Generativa (IAGen) marca un punto de inflexión relevante. A diferencia de innovaciones tecnológicas previas, la IAGen supone un incremento cuantitativo y cualitativo con potencial para optimizar los procesos y la eficiencia laboral. La IAGen implica la introducción de sistemas capaces de interactuar con lenguaje natural, generar contenidos nuevos y originales personalizados (texto, imagen, voz o vídeo) e integrarse de forma prácticamente invisible en plataformas y servicios ya utilizados. Su adopción es vertiginosa y su capacidad de penetración en las esferas del ámbito de la salud, académico, social, familiar y personal resulta inédita2. Este escenario plantea un desafío sin precedentes para el neurodesarrollo, la protección y el bienestar en la población infantojuvenil. La llegada de la IAGen obliga a revisar críticamente los errores cometidos en procesos anteriores (como por ejemplo el impacto de las redes sociales en la salud, el aprendizaje y en la socialización) y a preguntarnos si estamos preparados para guiar su integración de forma compatible con la protección efectiva y real de niños y adolescentes3.

Aprendizajes del pasado y costes de la normalización tecnológica

Para evitar la repetición de errores, resulta estratégico analizar las consecuencias de la adopción masiva del smartphone en la infancia. En España, la entrega del primer teléfono inteligente se produce mayoritariamente antes de los 11 años, coincidiendo con una etapa clave para la construcción de la identidad, la autorregulación emocional y el desarrollo de habilidades sociales. En este contexto, la presión social —el «todos lo tienen menos yo»— ha prevalecido sobre una reflexión ajustada a la madurez que le corresponde al menor por su neurodesarrollo y al tipo de uso y contenido previsto. Con el tiempo, han emergido los costes ocultos de esta normalización temprana. La evidencia científica disponible muestra asociaciones consistentes entre el uso prematuro de dispositivos digitales y múltiples problemas de salud y desarrollo, entre los que destacan: alteraciones del sueño y de la atención relacionadas con la sobreestimulación; incremento de conductas de uso problemático con desplazamiento de actividades esenciales como el juego, la lectura o la interacción presencial; conflictos familiares recurrentes vinculados al control del tiempo y los contenidos; y exposición a experiencias de ciberacoso o a contenidos pornográficos con impacto significativo en el bienestar emocional2. Tratar la tecnología como un elemento neutral o inocuo para la población infantojuvenil facilitó la aparición de escenarios de riesgo que hoy constituyen una preocupación sanitaria, de protección de datos y familiar de primer orden. Estas consecuencias pueden verse amplificadas por la naturaleza inmersiva, personalizada y persuasiva de la IAGen, lo que convierte las lecciones del pasado en una referencia críticamente urgente a tener en cuenta4.

La IAGen como mediador del desarrollo

La IAGen no puede considerarse una herramienta más en la vida de niños y adolescentes. Su carácter disruptivo reside en su capacidad, resultado de decisiones de diseño humanas y no de una cualidad inevitable de la tecnología, para actuar como mediador permanente entre el menor y su entorno, incluida la relación con el conocimiento y con el propio yo. A diferencia de tecnologías anteriores, no se limita a ofrecer información o entretenimiento, sino que puede dialogar, anticiparse y actuar, mostrando comportamientos cuasihumanos intencionalmente diseñados y, por tanto, potencialmente regulables4. Esta mediación continua tiene implicaciones profundas. La IAGen puede asumir funciones cognitivas, reduciendo el esfuerzo asociado al aprendizaje; ofrecer una forma de compañía aparente que filtra información, modular la percepción de la realidad acentuando en ocasiones la soledad; e influir directamente en la autopercepción, la construcción de la identidad y las relaciones interpersonales4. En etapas de alta plasticidad cerebral, esta mediación puede competir con experiencias reales fundamentales para un desarrollo saludable.

La evidencia emergente sobre relaciones parasociales con sistemas conversacionales sugiere posibles interferencias en el neurodesarrollo y en la adquisición de habilidades sociales. Existe el riesgo de debilitar capacidades esenciales como el esfuerzo cognitivo sostenido, la tolerancia a la frustración, la exploración creativa autónoma o el aprendizaje social basado en el ensayo-error presencial4. Por ello, el desarrollo y despliegue de estas tecnologías debe guiarse por marcos éticos sólidos que sitúen el derecho a un neurodesarrollo adecuado, así como el bienestar infantojuvenil en el centro de este debate (tabla 1)3. Aunque estos principios éticos constituyen una brújula indispensable, su traducción en salvaguardas reales resulta compleja. La distancia entre los marcos normativos y su aplicación práctica se manifiesta en riesgos concretos que afectan directamente al neurodesarrollo.

Tabla 1.

Principios éticos de la IA

Principio ético  Definición  Implicaciones clave en IA 
Beneficencia  Obliga a que la IA actúe orientada a «hacer el bien», promoviendo el bienestar humano, la dignidad de las personas y la sostenibilidad del planeta.  Diseño de sistemas que aporten beneficios sociales reales, mejoren la calidad de vida y contribuyan al desarrollo humano y ambiental. 
No maleficencia  Exige «no hacer daño», evitando riesgos, abusos o usos perjudiciales de la IA.  Prevención del uso excesivo o indebido, protección de la privacidad, de la seguridad de los datos y de la exclusión de aplicaciones con potencial daño físico, psicológico o social. 
Autonomía  Garantiza que la IA respete y promueva la capacidad de decisión humana.  Evitar la sustitución acrítica del juicio humano, asegurar consentimiento informado y mantener el control humano en decisiones relevantes. 
Justicia  Busca preservar la equidad y la imparcialidad en el uso de la IA.  Prevención de sesgos y discriminaciones, fomento de la diversidad y uso de la IA para mejorar —no distorsionar— la toma de decisiones. 
Transparencia  Principio habilitador que permite que los anteriores criterios sean evaluables y exigibles.  Transparencia, replicabilidad de los sistemas, rendición de cuentas clara (accountability) y posibilidad de auditoría ética y técnica. 

IA: inteligencia artificial.

Dimensiones del riesgo en la adolescencia

Desde una perspectiva pediátrica, resulta imprescindible abandonar la presunción de inocuidad de la IAGen y avanzar hacia una identificación sistemática de los riesgos que plantea con el objetivo de poder intervenir. Investigaciones recientes han comenzado a categorizar estas amenazas, delimitando áreas de especial preocupación (tabla 2)4. Entre ellas destacan tres dimensiones con impacto potencialmente sistémico. En primer lugar, la privacidad y la salud pública: la recopilación masiva de datos trasciende el ámbito jurídico y se convierte en un mecanismo crítico para garantizar el derecho al neurodesarrollo integral. El uso indebido de información sensible puede generar efectos duraderos, en contradicción con el principio del interés superior del menor2,4. En segundo lugar, el diseño adictivo. En la economía de la atención, muchas plataformas optimizan la interacción prolongada mediante estrategias persuasivas que no siempre benefician al usuario. Se ha documentado el uso sistemático de técnicas destinadas a captar y retener a los jóvenes, siendo las redes sociales las que concentran mayor intensidad de estas prácticas5. En tercer lugar, el sesgo algorítmico. Los sistemas de IAGen, entrenados con datos que reflejan desigualdades estructurales, pueden reproducir y amplificar sesgos discriminatorios. Esto tiene consecuencias directas sobre las trayectorias educativas y las oportunidades vitales, afectando de forma desproporcionada a los menores más vulnerables3. La experiencia previa demuestra que los efectos adversos de la tecnología no se distribuyen de manera homogénea, sino que impactan con mayor intensidad en contextos de menor acompañamiento adulto y en familias con menos recursos socioeconómicos. Ante esta constelación de riesgos, se hace necesaria una respuesta coordinada desde los ámbitos pediátrico, educativo, regulatorio y familiar.

Tabla 2.

Riesgos de la IAGen en la población infantojuvenil

Dimensión de riesgo  Descripción de los riesgos 
Bienestar mental  • Dependencia emocional hacia sistemas de la IAGen.• Uso compulsivo con desplazamiento de actividades cotidianas.• Exacerbación de ansiedad y depresión preexistentes.• Alteraciones en la percepción de la realidad.• Respuestas inadecuadas ante crisis psicológicas. AIlessphobia
Desarrollo conductual y social  • Refuerzo de conductas inapropiadas.• Deterioro de habilidades sociales.• Normalización de dinámicas sin consentimiento.• Interferencia en el desarrollo identitario.• Aumento del aislamiento social. 
Desarrollo cognitivo y aprendizaje  • Delegación de facultades cognitivas en la IAGen (razonamiento, memoria, planificación, escritura).• Desincentivación del esfuerzo cognitivo y del aprendizaje activo.• Riesgo de empobrecimiento de habilidades metacognitivas y pensamiento crítico.• Interiorización de la idea de inutilidad del aprendizaje propio («¿para qué aprender o reflexionar si la IAGen lo puede hacer por mí?»). 
Toxicidad  • Lenguaje ofensivo o violento.• Contenido sexual inapropiado.• Simulación de conductas autodestructivas.• Introducción inesperada de temas perjudiciales. 
Mal uso  • Creación de deepfakes con fines de acoso o explotación.• Difusión de desinformación y propaganda.• Fraudes y suplantaciones de identidad.• Recomendaciones erróneas en ámbitos críticos.• Amplificación del ciberacoso. 
Sesgos y discriminación  • Reproducción de estereotipos perjudiciales.• Generación de discursos de odio.• Exclusión sistemática de grupos minoritarios.• Normalización de actitudes discriminatorias. 
Privacidad  • Uso de datos de menores sin consentimiento.• Inducción a la revelación de información personal.• Riesgo de filtración de datos sensibles.• Exposición inadvertida de información íntima. 

IAGen: inteligencia artificial generativa.

Hacia un principio de precaución inteligente

La pediatría tiene la responsabilidad de evitar un nuevo proceso de adopción acrítica de tecnologías emergentes. Esto exige una acción articulada en cuatro líneas estratégicas1. En primer lugar, la consulta pediátrica debe incorporar de forma sistemática preguntas sobre el uso de herramientas de IA en la anamnesis, identificando posibles situaciones de dependencia emocional, sustitución de actividades presenciales o exposición a contenidos inadecuados. En segundo lugar, el acompañamiento familiar debe transmitir mensajes claros: retrasar la introducción del primer smartphone, priorizar usos supervisados y evitar que la IA actúe como consejero, regulador emocional, «canguro digital» o solucionador constante de tareas, reconociendo que el aburrimiento y la dificultad forman parte de un neurodesarrollo saludable. En tercer lugar, el ámbito educativo debe resistir la presión económica y el miedo a la obsolescencia. La cuestión central no es cómo introducir la IA, sino en qué contextos aporta valor sin erosionar procesos clave del neurodesarrollo, el aprendizaje y el desarrollo competencial. Finalmente, resulta imprescindible un marco regulatorio que establezca límites claros a la explotación comercial de datos, a la personalización opaca de contenidos y al diseño conductual dirigido a menores.

Conclusión

La IAGen representa un cambio de paradigma. A diferencia de procesos previos, desde el inicio sabemos que plantea riesgos profundos, sin que ello excluya la aparición de otros aún no anticipables, especialmente a medida que sus sistemas adquieran mayores grados de autonomía. Sabemos que no es neutra y que, como mediador permanente, puede generar dependencias y amplificar problemas de salud y desigualdades si se introduce sin control en etapas sensibles del neurodesarrollo. La cuestión clave es si seremos capaces de aplicar un principio de precaución inteligente: avanzar con prudencia, evaluación rigurosa y un compromiso firme con la protección de la infancia y la adolescencia. De no hacerlo, existe un riesgo real de enfrentar, en pocos años, efectos adversos difíciles de revertir. No podemos permitirnos llegar tarde de nuevo.

Bibliografía
[1]
M.A. Salmerón-Ruiz, I. Montiel, C. L’Ecuyer.
Llamada a la prudencia en el uso de las pantallas: ausencia de evidencia no es evidencia de ausencia.
An Pediatr (Barc), 101 (2024), pp. 73-74
[2]
M.A. Salmerón Ruiz.
Impacto de la inteligencia artificial en la adolescencia: riesgos y líneas de acción.
Adolescere, 13 (2025), pp. 51-58
[3]
K. Porayska-Pomsta, W. Holmes, S. Nemorin.
The ethics of AI in education.
arXiv, (2024),
[4]
Y. Yu, Y. Liu, J. Zhang, Y. Huang, Y. Wang.
Understanding generative AI risks for youth: A taxonomy based on empirical data.
arXiv, (2025),
[5]
Y. Chen, Y. Fu, Z. Chen, J. Radesky, A. Hiniker.
The engagement-prolonging designs teens encounter on Very Large Online Platforms.
arXiv, (2024),
Copyright © 2026. Asociación Española de Pediatría
Descargar PDF
Idiomas
Anales de Pediatría
Opciones de artículo
Herramientas