A las 7:00 de la mañana, una crisis puede estar completamente formada antes de que un medio la publique. Un documento circula por WhatsApp, un creador de contenido lo interpreta en Instagram, una cuenta anónima en X le añade sospechas, y un video breve en TikTok le imprime velocidad emocional. Cuando la redacción llega, con frecuencia no arriba al comienzo de la historia, sino a un relato que otros empezaron a contar. La noticia ya existe antes de que exista. Esa es una tendencia central de nuestro tiempo.
Durante décadas, el poder narrativo estuvo relativamente concentrado. Los periódicos, que siempre marcaron la denominada “agenda setting”, decidían qué merecía atención; la radio y la televisión ordenaban prioridades; el periodismo profesional actuaba como filtro, jerarquía y contexto. Ese poder no ha desaparecido, sigue vigente, pero ahora está redistribuido y la inteligencia artificial generativa acelera el proceso.
Hoy competimos en un entorno digital y algorítmico al mismo tiempo, con lo cual la visibilidad, la síntesis y hasta el acceso primario a los hechos pasan por sistemas automáticos que resumen, recomiendan y reordenan la realidad. La audiencia ya no siempre entra a un medio para leer su versión de los hechos y puede encontrarse primero con un resumen generado por IA, con una interpretación recortada o con un relato emocionalmente más eficaz, aunque sea menos riguroso.
Los datos del Instituto Reuters ayudan a dimensionar mi planteamiento. Entre 2024 y 2025, el conocimiento público sobre herramientas de inteligencia artificial pasó del 78% al 90%, mientras el uso semanal se duplicó del 18% al 34%. Entre los jóvenes de 18 a 24 años, el 59% ya usa estas herramientas con regularidad. Y quizá el dato más perturbador para medios y emprendedores mediáticos es este: un 28% de los usuarios nunca hace clic en el enlace de origen cuando recibe una respuesta generada por IA en el buscador. Es decir, la narrativa puede consumirse sin que nadie visite jamás la fuente original.
La misma evidencia revela una paradoja decisiva, porque el público aprecia la eficiencia tecnológica, pero no entrega fácilmente toda su confianza. El 62% se siente cómodo con producción íntegramente humana, mientras apenas el 12% acepta producción totalmente automatizada. La llamada “brecha de comodidad” también aparece en tareas específicas: el 55% acepta IA para gramática, pero solo el 19% admite presentadores artificiales. La conclusión es que la tecnología puede asistir la producción, pero no reemplazar la responsabilidad.
Ese punto debería ser central para las redacciones y para quienes están construyendo nuevos proyectos mediáticos. La IA no debe verse como una fábrica de contenido barato, sino como una palanca de profundidad. En ese sentido, la IA no borra al periodista; lo libera de lo mecánico y repetitivo para ampliar su capacidad de investigar.
De ahí surge la competencia decisiva de esta etapa. El periodista y el comunicador ya no solo necesitan escribir bien o editar mejor. Necesitan preguntar bien. Lo que en el lenguaje tecnológico se llama prompt engineering no es, en el fondo, un asunto de ingenieros. Es una extensión de la inteligencia periodística. La diferencia entre solicitar “resúmeme este informe” y pedir “identifica sobrecostos, recurrencia de proveedores y desviaciones presupuestarias” no está en la herramienta. Se localiza en la calidad mental de quien la usa. La IA es una conversación y la cualificación de la misma depende de la calidad de las preguntas.
Por eso, el gran déficit de hoy para nosotros los periodistas no es tecnológico. Es formativo. Las herramientas existen y muchas son accesibles. Lo que falta es alfabetización rigurosa para utilizarlas con criterio editorial, disciplina de verificación y conciencia de sus límites. Una redacción o un emprendimiento mediático que incorpore IA sin entrenamiento ético y metodológico no está innovando, sino automatizando su propia fragilidad.
Aquí aparece, pues, el problema más delicado. La misma tecnología que amplía la investigación también abarata la manipulación. Los deepfakes, el contenido sintético de baja calidad y la falsificación de contextos ya no son una amenaza remota. Constituyen un riesgo operativo. En nuestro país, donde una reputación puede construirse lentamente en Instagram y destruirse en horas en grupos de WhatsApp, la ética deja de ser un adorno y se convierte en infraestructura defensiva.
De este nuevo mapa salen tres lecciones simples. Primero, la velocidad sin verificación es propaganda; segundo, la transparencia sobre el uso de IA fortalece la credibilidad; esconderla la erosiona. Tercero, la narrativa sigue siendo humana, porque solo un ser humano puede responder públicamente por lo que publica. Un algoritmo redacta, pero no da la cara.
En ese contexto, el desafío no consiste en decidir entre periodismo o inteligencia artificial, como si se tratara de una disyuntiva simple. Se trata de producir una inteligencia periodística superior, más rápida para explorar, más rigurosa para verificar, más profunda para contextualizar y más consciente de su responsabilidad pública. Los medios y los emprendedores mediáticos que entiendan eso no usarán la IA para parecer modernos, sino para volverse más útiles. En un ecosistema saturado de ruido, velocidad y simulación, la utilidad bien ejercida puede volver a ser la forma más alta de la credibilidad.
