La inteligencia artificial ha entrado en las redacciones españolas, pero no en la conciencia profesional de los periodistas. El 74% ya utiliza herramientas de IA en su trabajo diario, aunque la mayoría lo hace con cautela y dejando claro que la responsabilidad editorial sigue siendo exclusivamente humana.
Según se ha hecho eco ExtraDigital, el barómetro “Informar en tiempos de inteligencia artificial”, elaborado por la agencia de comunicación Axicom a partir de una encuesta a 120 periodistas de medios nacionales, regionales y digitales. El estudio revela un consenso amplio: la tecnología puede acelerar procesos, pero no debe alterar los principios del oficio.
“La IA puede sugerir un titular, pero no decidir qué es noticia. Puede documentar, pero no sustituir la voz del periodista”, explica Mónica González Ortín, Country Manager de Axicom, convencida de que la tecnología debe estar “al servicio del criterio, no de la automatización”.
Los datos lo confirman: la mayoría de los profesionales utiliza la IA para agilizar labores técnicas o repetitivas. Un 56% la emplea para generar titulares, un 46% para transcribir entrevistas, un 42% para documentarse y casi la mitad recurre a ella como apoyo creativo. Sin embargo, solo un 4,2% confía en la IA para redactar noticias de manera autónoma y un 11% la usa en tareas de verificación.
Esta brecha refleja una decisión consciente. Más de la mitad de los periodistas (53,5%) considera que ciertas funciones deberían estar limitadas o directamente prohibidas, especialmente la redacción automática de contenidos. La razón es clara: la tecnología no puede reemplazar el juicio editorial ni el compromiso ético que definen la credibilidad del periodismo.
“El periodismo no rechaza la innovación, pero tampoco se entrega a ella sin reservas. La supervisión humana no es negociable”, sostiene González Ortín.
El entusiasmo por la IA convive con una realidad inquietante: el 60% de los periodistas admite no sentirse preparado para utilizarla con garantías. Muchos trabajan sin formación específica ni protocolos definidos sobre su uso. Y apenas un tercio (31%) forma parte de medios que hayan establecido políticas internas sobre IA.
Esta carencia está generando dilemas cotidianos. ¿Debe el lector saber cuándo una máquina ha intervenido en la elaboración de una pieza informativa? ¿Qué límites son necesarios para proteger la integridad de los contenidos?
Para González Ortín, el sector atraviesa “una fase de transición donde el periodista no lo sabe todo sobre la IA, pero sí tiene clara su responsabilidad”. Y añade que “no se trata de esperar a dominar la tecnología para actuar, sino de aprender mientras se ejerce el oficio con conciencia y transparencia”.
El estudio detecta que la principal preocupación de los periodistas no es la tecnología en sí, sino su uso sin garantías. Más de la mitad teme una pérdida de calidad informativa (55,7%), seguida por la difusión de sesgos o errores (48,2%), el temor al reemplazo del trabajo humano (41,8%) y la dependencia de sistemas opacos (38,7%).
En paralelo, seis de cada diez profesionales creen que el público tiene derecho a saber si un contenido ha sido generado —total o parcialmente— con ayuda de IA. La transparencia se percibe así como un pilar esencial para preservar la confianza, especialmente en un momento en que la desinformación digital avanza con rapidez.
El barómetro apunta hacia un modelo híbrido donde la IA amplía las capacidades del periodismo sin alterar su esencia. Herramientas como ChatGPT (82%), Microsoft Copilot (31%) o Gemini/Bard (30%) se han convertido en aliados experimentales para muchos profesionales, pero aún dentro de un contexto de “prueba y error”.
El estudio de Axicom subraya que la transformación tecnológica será inevitable, pero su éxito dependerá del equilibrio entre eficiencia y ética. En palabras de González Ortín, “la IA puede aportar velocidad y nuevas narrativas, pero el valor diferencial seguirá siendo humano: criterio, mirada y responsabilidad”.











