Habla con pausa, pero con determinación. Escoge bien cada palabra, como quien sabe que la tecnología no solo se entiende, también se cuenta. Emily K. Dawson (Austin, Texas, 1993) es periodista tecnológica, investigadora y profesora universitaria, pero sobre todo, es una convencida de que la inteligencia artificial no puede quedar en manos de unos pocos. “No se trata solo de máquinas, sino de derechos, de acceso, de poder”, dice.
Con más de una década analizando el impacto social de las tecnologías emergentes, Dawson —que ha pasado por gigantes como IBM y Alphabet Inc. y hoy da clases en el Instituto de Tecnología de Illinois— combina la investigación con la divulgación. Es autora de libros como IA en la vida cotidiana o El futuro de la IA, y ha hecho del periodismo un puente entre el lenguaje técnico y la vida real: la que vivimos todos, a diario, con algoritmos invisibles tomando decisiones sobre nuestra salud, nuestro trabajo o nuestras oportunidades.
Desde su ciudad natal, Austin, y en un perfecto inglés con acento tejano y pinceladas de español, habla con claridad de lo que viene, pero sin alarmismos. En esta entrevista, abordamos con ella los grandes temas de la era digital: equidad, educación, poder, inversión tecnológica… y por qué, más que nunca, es momento de participar y no quedarse al margen.

P: Emily, ¿por qué insistes tanto en que es clave invertir en investigación y desarrollo en inteligencia artificial?
Emily: Porque si no lo hacemos, nos vamos a quedar atrás. No se trata de una carrera por tener más robots que nadie, sino de asegurarnos de que tenemos voz propia en cómo se diseña esta tecnología. La IA está marcando el ritmo en medicina, energía, educación, seguridad… y si no apostamos por la I+D, otros países, otras empresas o incluso otros modelos éticos lo harán por nosotros. Debemos invertir en investigación y desarrollo de IA para mantenernos a la vanguardia, pero también para poder decidir qué queremos hacer con ella y qué no.
P: ¿Crees que todavía hay una percepción ingenua sobre la inteligencia artificial?
Emily: Muchísima. Todavía hay gente que piensa que como es una máquina, lo que dice es objetivo, justo o fiable. Y eso no es así. Los sistemas de IA aprenden de datos humanos, y esos datos están llenos de desigualdades, prejuicios y errores. Si no entendemos esto, nos la van a colar una y otra vez. La IA no es neutral, refleja los intereses y limitaciones de quienes la diseñan.
P: ¿Cuál es el papel de las grandes empresas en este escenario?
Emily: Lo hablé hace poco en una conversación muy interesante que se generó en X tras una de mis publicaciones, y quedó claro que la gente está cada vez más preocupada por este tema. Las grandes empresas tienen un peso enorme. Controlan los recursos, el talento y las infraestructuras necesarias para desarrollar estas tecnologías. Y lo están haciendo, claro, pero muchas veces pensando más en beneficios que en impacto social. No podemos dejarlo todo en manos de gigantes tecnológicos que no rinden cuentas a nadie. Por eso es tan importante que haya gobiernos formados, periodistas críticos y ciudadanos que exijan transparencia y responsabilidad.
P: ¿Qué opinas del tipo de narrativa que se hace en medios sobre la IA?
Emily: Está completamente descompensada. Un día te dicen que la IA va a acabar con la humanidad y al siguiente que te va a curar el cáncer. Y mientras tanto, nadie habla de que ya está decidiendo quién consigue un crédito, qué contenido ves o qué puesto de trabajo se automatiza. Desde hace tiempo intento equilibrar esa narrativa en los contenidos que comparto con mi comunidad digital, donde hay espacio tanto para los matices como para las preguntas incómodas.
P: ¿Estamos preparados desde el sistema educativo para esta transformación?
Emily: En absoluto. Seguimos enseñando con esquemas del siglo pasado, como si nada hubiera cambiado. Y no me refiero solo a enseñar programación, que también, sino a formar en pensamiento crítico, ética digital, derechos tecnológicos… La educación no puede ir por detrás de la tecnología, tiene que ir por delante si queremos que las nuevas generaciones tengan poder de decisión y no solo sean usuarias pasivas.

P: ¿Qué herramientas concretas crees que ayudarían a la ciudadanía a implicarse más?
Emily: Lo primero es dejar de hablar en tecnopalabrería y empezar a contar las cosas de forma clara y directa, porque esto nos afecta a todos. Y después, crear espacios de participación reales: debates abiertos, laboratorios ciudadanos, medios que expliquen sin condescendencia… Necesitamos alfabetización tecnológica como quien necesita saber leer, porque si no entiendes el lenguaje del mundo, te lo imponen.
P: ¿Qué pasa con quienes no tienen acceso o formación suficiente en este ámbito?
Emily: Que quedan excluidos. Las brechas digitales no son un problema del futuro, son del presente, y afectan de forma brutal a personas mayores, zonas rurales, migrantes, comunidades con menos recursos… Si no diseñamos políticas que los incluyan, lo único que conseguiremos es agrandar aún más las desigualdades que ya existen.
P: Entonces, ¿qué actitud deberíamos tener como sociedad ante la IA?
Emily: Una actitud activa. No se trata de estar a favor o en contra, eso es simplificar demasiado. La IA está aquí, va a seguir desarrollándose, y la cuestión es cómo la controlamos, cómo la regulamos, cómo nos aseguramos de que sirve a intereses públicos y no solo privados. Lo que no podemos hacer es mirar hacia otro lado.
P: ¿Y cómo ves el futuro en este sentido? ¿Optimista, pesimista…?
Emily: Realista. Sé que hay riesgos serios, pero también veo gente trabajando para cambiar las cosas, comunidades que se movilizan, jóvenes con ideas increíbles… Si decidimos ahora, aún estamos a tiempo de hacer las cosas bien. Pero eso implica que no dejemos pasar el momento. No esperemos a que otros lo hagan por nosotros.
Mirar hacia otro lado ya no es una opción
Las respuestas de Emily K. Dawson no dejan lugar a dudas: la inteligencia artificial no es un asunto del mañana, es el eje de muchas decisiones que ya se están tomando hoy, muchas veces sin que nos demos cuenta. Decisiones sobre qué vemos en redes sociales, si conseguimos un crédito, si un currículum pasa una primera criba automática o si un paciente recibe atención prioritaria en un hospital. Y lo más inquietante es que, en la mayoría de los casos, todo esto ocurre sin transparencia, sin supervisión pública y sin que los ciudadanos tengamos herramientas para intervenir o siquiera entender qué está pasando.
Por eso, cuando Dawson insiste en que es urgente invertir en investigación y desarrollo, no habla solo de competitividad económica o liderazgo tecnológico. Habla de soberanía, de valores, de participación democrática. Habla de que si no decidimos nosotros cómo queremos que sea esta tecnología, otros lo harán en nuestro lugar, desde otros intereses, con otros criterios. “La IA no es neutral”, recuerda. “Refleja los datos con los que se entrena, y esos datos están llenos de desigualdades”.

Esa falta de neutralidad no se limita a los sistemas, sino que también atraviesa el relato que hacemos de la tecnología. Medios que oscilan entre el catastrofismo y el entusiasmo sin matices, discursos institucionales que llegan tarde y mal, empresas que prometen soluciones mágicas mientras eluden responsabilidades. Dawson lo tiene claro: necesitamos otra narrativa, más honesta, más equilibrada y más conectada con la vida real. Y esa narrativa solo se construye con pensamiento crítico, participación ciudadana y medios de comunicación que no traten a su audiencia como espectadora pasiva.
En este escenario, la educación emerge como una de las grandes asignaturas pendientes. Y no solo por la falta de formación técnica, sino por algo más profundo: seguimos enseñando con esquemas del siglo pasado, mientras el mundo cambia a una velocidad vertiginosa. Para Dawson, alfabetizar tecnológicamente es tan importante como enseñar a leer o escribir. No se trata solo de formar programadores, sino ciudadanos con criterio, capaces de cuestionar, decidir y construir.
¿Y qué pasa con quienes no tienen acceso o formación suficiente? Aquí la respuesta de Dawson es tan clara como inquietante: se quedan fuera. “Las brechas digitales no son del futuro, son del presente”, dice. Personas mayores, migrantes, comunidades rurales, familias sin recursos… todos corren el riesgo de quedarse aún más al margen en esta nueva era si no se diseñan políticas que incluyan, que escuchen, que reparen.
¿Qué actitud deberíamos tener, entonces? Emily no propone ni miedo ni fe ciega. Su enfoque es activo, realista y comprometido. Reconoce los riesgos, pero también las oportunidades. Y, sobre todo, rechaza la idea de que todo esté ya decidido. “Aún estamos a tiempo de hacer las cosas bien”, afirma, con la serenidad de quien lleva años estudiando el tema, pero también con la urgencia de quien sabe que el momento de actuar es ahora.
Porque al final, como deja claro esta conversación, el problema no es la tecnología. El problema es cómo, para quién y con qué fines se desarrolla. Y eso —nos guste o no— depende de todos.