Del código a la conducta en el nuevo territorio de la IA

La inteligencia artificial ya no puede pensarse como una herramienta periférica, es una fuerza que está reordenando la toma de decisiones, el trabajo, el liderazgo, la gobernanza corporativa y la vida democrática. Es un desafío institucional y cultural. La tecnología avanza con enorme velocidad, con adopción extendida, capacidades desparejas y efectos cada vez más amplios sobre mercados, Estados y organizaciones. Al mismo tiempo que la expansión de la IA automatiza tareas, debilita el juicio humano, la verificación crítica y la producción social de conocimiento. El debate serio sobre IA no puede quedar atrapado entre el hype y el miedo superficial. Aparecen temas como la gobernanza paso a paso, el liderazgo algorítmico, el agentwashing, la antropomorfización de sistemas, el diseño centrado en lo humano, la dependencia de infraestructuras opacas y la soberanía tecnológica. En conjunto, el verdadero desafío es decidir bajo qué principios, con qué controles, con qué alfabetización y con qué arquitectura institucional implementar la IA. La pregunta central es qué tan capaces seremos nosotros de preservar criterio, responsabilidad y libertad en un entorno cada vez más mediado por sistemas que prometen pensar por nosotros.

Por Raúl Saccani

Introducción

En la reciente conferencia Global Ethics and Compliance Symposium 2026, la conversación sobre ética y compliance dejó de girar alrededor de normas, controles y matrices de riesgo, y empezó a orbitar una pregunta más incómoda: qué queda del juicio humano cuando las organizaciones comienzan a delegar cada vez más decisiones, inferencias y reflejos en sistemas que hablan con una seguridad casi insolente. Esta crónica-toma ese clima —de panel, pasillo ycoffee break— y lo entrelaza con todos los materiales de la última edición del Newsletter #383, para construir una edición interactiva sobre poder, criterio, gobierno corporativo, democracia, diseño, trabajo y ese viejo asunto que la tecnología siempre promete resolver y no puede domesticar del todo: la condición humana

 

La GECS2026ofreció, en un solo día, una secuencia casi novelesca de temas: brújula geopolítica, ética más allá del rulebook, compliance como generador de valor y, finalmente, el panel FromCode to Conduct: SteeringEthics and Compliance intoan AI-Powered Future”, en el que tuve el privilegio de participar. En la preparación y en la discusión misma aparecieron, una y otra vez, algunas obsesiones compartidas: dónde “vive” la ética de IA dentro de una organización, cómo pasar de principios elegantes a implementación real, qué significa en serio “human in the loop”, cómo evitar el hechizo de la automatización y por qué la alfabetización en IA no sirve de mucho si la cultura castiga a quien cuestiona el output de la máquina.

I. La vieja tentación de arrodillarse ante una máquina que suena segura

Toda época fabrica sus oráculos. La nuestra, por supuesto, les pone interfaz conversacional.

Ese fue uno de los ejes del panel: la IA produce una estética de la certeza. Y cuando viene envuelta en sintaxis impecable, tono confiado y velocidad de vértigo, muchos usuarios empiezan a entregar algo más que tareas repetitivas: entregan criterio. En la discusión apareció con fuerza la idea del automationbias, del “halo tecnológico”, de esa tendencia a atribuir objetividad, superioridad y hasta una suerte de compostura moral a sistemas que, en rigor, siguen siendo artefactos probabilísticos. La externalización de tareas puede ser útil; la externalización del juicio, en cambio, es una forma sofisticada de pereza. Una cosa es usar copiloto; otra muy distinta es entregarle el volante, el mapa y la conciencia.

Esa inquietud conversa de manera natural con AI Isn't as Powerful as We Think | Hannah Fry, donde Fry sugiere dos cosas a la vez: que los cambios por venir pueden ser sísmicos en un horizonte relativamente cercano, y que precisamente por eso conviene resistir la tentación de volver sagrada a la tecnología. Su advertencia no es tecnófoba, sino más fina: cuando empezamos a usar sistemas digitales para responder preguntas profundamente humanas, aparece una fragilidad que no siempre queremos ver. De ahí que sus analogías —entre ellas la del montacargas y la de la comida chatarra— resulten tan útiles: la IA puede amplificar capacidades, abaratar esfuerzos y volver accesibles tareas antes reservadas a especialistas, pero también puede acostumbrarnos a consumir respuestas rápidas sin metabolizar realmente su contenido. Algo parecido, aunque con un tono más normativo, aparece en Using AI Is Like Driving a Car With No Licence | Prof Virginia Dignum. Allí, la metáfora del auto sin licencia, sin frenos y sin señalización sirve para subrayar que la IA no debería entenderse como una mera pieza de software, sino como un sistema sociotécnico cuyas consecuencias dependen de instituciones, incentivos, cultura y supervisión. Dignum discute además el mito de la inevitabilidad de los grandes modelos, insiste en que las “alucinaciones” no son un accidente marginal sino una consecuencia estructural del modo en que estos sistemas operan, y muestra, con ejemplos del sector salud, que incluso profesionales altamente calificados pueden deteriorar su desempeño cuando la máquina “explica” con demasiada seguridad. Esa misma deriva aparece con mayor densidad conceptual en Thinking—Fast, Slow, and Artificial: How AI is Reshaping Human Reasoning and the Riseof Cognitive Surrender, que propone ampliar la clásica teoría de los dos sistemas de pensamiento e introducir un “Sistema 3”: una cognición artificial que ya no sólo asiste, sino que participa activamente en la manera en que razonamos, decidimos y actuamos. Lo más inquietante del paper no es sólo que la gente delegue en la IA más de la mitad de ciertas decisiones, sino que su confianza aumente incluso cuando la IA se equivoca. Es decir: no sólo empezamos a pensar con la máquina; empezamos a equivocarnos con ella, y a hacerlo con serenidad.

La pregunta se vuelve todavía más densa en AI, Human Cognition and KnowledgeCollapse, porque allí el problema deja de ser simplemente psicológico y pasa a ser también ecológico: ya no se trata sólo del individuo que se vuelve perezoso, sino del modo en que una sociedad entera puede debilitar sus incentivos para aprender. El argumento es especialmente potente: las buenas decisiones dependen de una combinación entre conocimiento general, compartido, acumulado socialmente, y conocimiento contextual, específico de cada situación. El riesgo de la IA agéntica es que, al ofrecer recomendaciones cada vez más eficaces en el corto plazo, reduce el esfuerzo humano que alimenta ambos tipos de conocimiento y termina erosionando, precisamente, la base cognitiva que sostenía el sistema. El resultado posible es un equilibrio perverso: decisiones aparentemente mejores hoy, pero una infraestructura colectiva de saber cada vez más frágil mañana. En esalínea, Will superstupidity be as dangerous as superintelligence?acierta al desplazar el foco: la pregunta decisiva no es cuánto aumentarán las máquinas nuestra capacidad de decidir, sino si los humanos seguiremos realmente involucrados en el proceso. Para alterar radicalmente la relación entre humanos y sistemas, la IA no necesita llegar a una AGI todopoderosa; le alcanza con volverse mejor que nosotros en la gestión de sistemas complejos mientras nosotros, cómodamente, nos desentrenamos. Y para quienes todavía se apresuran a atribuir conciencia, interioridad o experiencia subjetiva a cualquier modelo que produce frases elegantes, The AbstractionFallacy: Why AI Can Simulate But Not InstantiateConsciousness introduce una distinción crucial. Su tesis es que la computación simbólica no constituye por sí misma una experiencia: puede simular conductas, pero no por eso instanciar conciencia. El paper separa con precisión la simulación de la constitución física de una experiencia y sostiene que, aun si alguna vez existiera un sistema artificial consciente, no lo sería por su arquitectura sintáctica, sino por su sustrato material específico. Es un correctivo filosófico muy oportuno para esta época: no toda máquina que parece comprender comprende; no todo sistema que conversa siente; y no toda simulación merece reverencia. Algunas, más modestamente, merecen control, contexto y auditoría.

 

II. Del rulebook al gobierno: cuando compliance deja de ser el departamento que llega tarde a decir “no”

Uno de los puntos más fértiles del panel fue la discusión sobre la ubicación organizacional de la ética de IA. Si la función queda alojada en Legales, tenderá a traducirse en lenguaje regulatorio. Si queda en producto o ingeniería, puede reducirse a especificación técnica y métricas operativas. Si se la coloca en un equipo dedicado, gana mirada transversal, pero corre el riesgo de convertirse en un enclave consultivo sin músculo real. No es un detalle burocrático: es una decisión atribuye visibilidad, poder, presupuesto y puntos ciegos.

Desde ese punto de partida, varias intervenciones coincidieron en que el problema central ya no es la falta de principios, sino la distancia entre principios e implementación. Ahí entran en escena AI Governance: WhyCompaniesNeed a Step-by-Step ImplementationStrategy, que baja el tema a una secuencia operacional concreta y advierte contra una adopción dominada por la improvisación, la presión competitiva y el entusiasmo desordenado, y The AI risk repository: A meta-review, database, and taxonomyofrisksfrom artificial intelligence, que aporta algo todavía más valioso para cualquier función de compliance: una cartografía amplia y estructurada del zoológico de riesgos, hoy sintetizado en más de 1.725 riesgos extraídos de 74 marcos distintos, junto con líneas de trabajo orientadas a incidentes, mitigaciones y brechas de respuesta. Leído junto con el panel, el mensaje es claro: más gobernanza interfuncional, inventario de casos de uso, documentación, accountability y capacidad real de veto. No sorprende, entonces, que en la GECS2026 aparecieran como respuestas más serias la creación de consejos de gobernanza de IA, el examen caso por caso, la documentación de posiciones divergentes, la escalación al board cuando el riesgo lo exige y la necesidad de guardrails prácticos para no confundir innovación con licencia para improvisar.

El problema, por supuesto, no es sólo empresarial. Artificial Intelligence and DemocraticValues muestra que la gobernanza de IA ya no es un campo emergente sino un sistema multinivel que atraviesa Estados, organismos internacionales y sectores sensibles, con cierto alineamiento en torno a principios como derechos humanos, transparencia y accountability, pero también con divergencias muy visibles en implementación, enforcement y uso de IA en ámbitos delicados como seguridad, administración pública y vigilancia. Breaking the deadlockon AI governance agrega una advertencia bastante incómoda: la cooperación internacional puede avanzar demasiado lento frente al ritmo tecnológico, y un salto hacia reglas más robustas podría volverse políticamente viable sólo después de una crisis suficientemente costosa. Y en los mercados, donde el marketing suele correr más rápido que la evidencia, Agent Washing: DisclosureRisks in the EmergingMarket for AI Agents recuerda que también habrá que gobernar la retórica: no basta con vender autonomía, hay que demostrarla, distinguir entre automatización simple, copilotos y sistemas realmente agentic, y respaldar cualquier promesa de impacto, eficiencia o ingresos con pruebas documentadas y revisión humana. Porque no todo lo que se vende como “agente” tiene agencia.

 

III. Democracia, influencia y esa industria de fabricar realidades

Otro hilo fuerte de la GECS 2026 fue que compliance ya no puede pensarse aislado de la geopolítica, de la arquitectura informacional ni de la disputa por la atención pública. No por casualidad, la jornada había arrancado con “The GeopoliticalCompass” y con paneles que empujaban a mirar más allá de la norma. La pregunta dejó de ser únicamente qué permite la regulación, y pasó a ser qué tipo de espacio público, qué tipo de mercado y qué tipo de ciudadano emerge cuando los intermediarios de sentido son sistemas algorítmicos.

En ese terreno, Fracturedreality: Howdemocracy can win the global struggle over the informationspace aporta una idea decisiva: el problema no es sólo la desinformación entendida como contenido falso o engañoso, sino algo más estructural y más corrosivo, la fragmentación de una realidad compartida sin la cual la deliberación democrática empieza a resquebrajarse. El reporte describe cómo las plataformas privilegian el engagement por encima de la precisión, refuerzan cámaras de eco ideológicas y erosionan la integridad informativa, el conocimiento colectivo y la conversación cívica. Además, no se limita al diagnóstico: propone recuperar agencia pública mediante espacios alternativos, sistemas de conocimiento colaborativo, reformas de modelo de negocio y una apuesta por soberanía digital e infraestructura descentralizada. China'sApproach to AI Anthropomorphism abre, a su vez, otra veta menos transitada en América Latina y muy relevante para ética y compliance: la vulnerabilidad humana frente a sistemas diseñados para parecer más “humanos” de lo que son. Su interés está en que no mira sólo el riesgo técnico, sino el riesgo relacional y cognitivo: cómo la apariencia de humanidad puede manipular confianza, dependencia y percepción, y por qué una regulación seria debe anticipar esos efectos con medidas técnicas y contextuales, en lugar de limitarse a discutir performance o privacidad en abstracto.

La discusión escala todavía más cuando entra en escena AI as the New Proxy Advisor: ReshapingShareholderActivismCommunications, porque muestra que la disputa ya llegó de lleno al gobierno corporativo y a la comunicación con accionistas. El punto fuerte del artículo es que la IA ya no aparece sólo como herramienta interna de eficiencia, sino como multiplicador externo de poder analítico y narrativo: minoritarios y activistas pueden procesar disclosures, detectar inconsistencias de governance o ESG y construir campañas persuasivas con una velocidad y una escala antes reservadas a actores con más recursos. Para boards y equipos de compliance, eso obliga a pensar en transparencia algorítmica, resiliencia comunicacional y defensas contra narrativas automatizadas o desinformación sofisticada. Y Nos están vendiendo el miedo equivocado hace algo que, en clave latinoamericana, resulta especialmente valioso: desplaza la conversación desde el espionaje de película y la paranoia geopolítica más superficial hacia la dependencia estructural, la captura de valor y la soberanía tecnológica. Su tesis es incómoda: mientras nos distraemos con qué modelo extranjero podría leer nuestros datos, dejamos mucho menos examinada la infraestructura que concentra el mercado, fija las reglas y extrae valor de manera persistente. A veces, en efecto, el verdadero riesgo no es que nos lean el prompt; es que jamás controlemos la infraestructura que decide qué vale, quién gana y dónde se acumula el poder.

.

IV. Trabajo, liderazgo y diseño: la empresa no necesita menos humanos, necesita humanos menos adormecidos

En los intercambios del panel y del breakout apareció una definición especialmente útil: compliance debería convertirse en una función que ayuda a ordenar la innovación, a identificar usos valiosos, a proteger datos, a documentar decisiones y a evitar que la organización confunda velocidad con inteligencia. En una de las intervenciones del breakout se habló, incluso, de usar IA en ambientes protegidos para acelerar investigaciones y e-discovery, reduciendo tiempo y costo sin regalar confidencialidad al primer proveedor. También apareció con fuerza la necesidad de una gobernanza clara antes de que todos “jueguen” por su cuenta, y la advertencia de que privacidad y evidencia humana de revisión no pueden quedar reducidas a un formulario boilerplate que nadie lee.

Ese movimiento —del foco en el procedimiento al foco en el criterio— dialoga muy bien con When Not to Use AI, que recuerda algo elemental y subversivo a la vez: la IA puede acelerar trabajo, pero no liderar personas. Benjamin Laker no plantea una objeción ludita, sino una delimitación de funciones: conviene dejar a la máquina lo mecánico para que el manager se concentre en lo que exige juicio, manejo de relaciones, confianza, comunicación y decisiones cargadas de valores. Dicho de otro modo, la productividad puede automatizarse parcialmente; la responsabilidad directiva, no. Se complementa con Ethan Mollick’sfourguidingprinciples for using AI at work, cuya virtud consiste en empujar a experimentar sin caer en la ingenuidad del “todo sirve”: Mollick propone invitar a la IA a la mesa para desmitificarla, descubrir usos reales y entender sus límites, pero insiste a la vez en algo decisivo para cualquier ecosistema de compliance: mantener al humano en el circuito de decisión, tratar la IA como bloque de construcción para ampliar flujos de trabajo y no como sustituto total, y obligar a que objetivos, procesos y accountability sigan siendo inteligibles para las personas. La cuestión se vuelve más compleja en Algorithmicleadership and the gameofbusiness, que introduce una pregunta formidable: si el liderazgo se vuelve parcialmente algorítmico, ¿qué parte del mando sigue siendo humana, y cuál debería seguir siéndolo incluso si la máquina pareciera hacerlo “mejor”? El paper es especialmente interesante porque discute la idea cómoda de una división simple del trabajo —la máquina analiza y el líder decide— y sostiene, al mirar la tradición de la teoría de juegos y la optimización estratégica, que buena parte de lo que llamamos liderazgo ya estaba hace tiempo atravesado por lógicas algorítmicas. La advertencia final es potente: corremos el riesgo de invertir la figura del MechanicalTurk; ya no una máquina escondiendo inteligencia humana, sino un humano prestando rostro a una inteligencia artificial que organiza, sugiere y orienta la acción.

Ahí el diseño importa tanto como la regulación. DesignMindfrogcast Ep.58 – When Human ConnectionMeets AI aporta una mirada menos defensiva y más creativa sobre cómo la IA reconfigura vínculos, marcas y procesos: Jess Leitch habla de la transición hacia un diseño más experimental, del vibecoding, de la apertura de herramientas creativas y de la manera en que la IA está alterando tanto la producción como la relación entre empresas y personas. Es una pieza útil porque recuerda que la discusión no trata sólo de riesgo, sino también de imaginación organizacional. Pero el entusiasmo necesita contrapeso conceptual, y por eso Theoryfirst: creatingvalue in the ageof data and AI cae tan bien en esta conversación: su tesis, deliberadamente provocadora, es que el pensamiento data-first puede convertirse en una trampa si no existe antes una teoría sobre qué problema importa, qué valor se quiere crear y qué tipo de organización se está intentando construir. No basta con tener datos, dashboards y capacidad de cómputo; hace falta una idea previa que oriente la búsqueda, interprete la señal y evite que la empresa termine optimizando lo que puede medir en lugar de lo que realmente importa. En otras palabras: antes del tablero, la brújula. Antes del dashboard, la idea. Y, si se quiere enlazar esto con lo discutido en la GECS2026, antes del “human in the loop” como ritual, un diseño institucional que preserve control humano significativo, alfabetización en IA y la capacidad de cuestionar a la máquina en lugar de rubricarla como si fuera un mero trámite.

 

V. Mirar más lejos: futuros, estadísticas y la necesidad de recuperar espesor histórico

A veces las organizaciones se acercan a la IA como quien entra a una tormenta mirando sólo el paraguas. Útil, sí; suficiente, no.

Para tomar dimensión del fenómeno conviene empezar por The 2026 AI Index Report - Stanford Institute for Human-Centered Artificial Intelligence (HAI), que ofrece la gran vista aérea con una combinación de datos difícil de ignorar: aceleración sostenida de capacidades, adopción masiva, competencia geopolítica cada vez más cerrada y una frontera técnica tan impresionante como irregular. El informe muestra, por ejemplo, que la capacidad no se está amesetando, que la industria produjo la enorme mayoría de los modelos de frontera en 2025, que el uso organizacional ya alcanza niveles muy extendidos y que la brecha entre Estados Unidos y China se ha estrechado de forma notable. Pero también introduce una imagen especialmente útil para cualquier lector de compliance: la de una frontera “dentada”, donde los sistemas pueden resolver tareas de altísima complejidad y al mismo tiempo fallar en otras sorprendentemente elementales. Esa mezcla de potencia y fragilidad explica por qué la vista aérea, por sí sola, tiende a producir una combinación de fascinación y vértigo. Por eso conviene leerla junto con Futurescape: Artificial Realities, que desplaza la mirada desde la pura capacidad técnica hacia la evolución de la relación entre humanos y sistemas inteligentes, y se pregunta qué viene después para las personas, las empresas, la sociedad e incluso el planeta. Y conviene sumarle Exploring the Futures ofTechnology 2.0, que obliga a abandonar la pregunta perezosa —“¿esto impactará?”— para pasar a la verdaderamente estratégica: cuándo, cuánto, cómo y bajo qué dependencias. Su aporte más valioso es recordar que la IA no sólo habilita nuevos servicios, modelos de negocio y formas de colaboración, sino también nuevas vulnerabilidades: dependencia de infraestructuras opacas, exposición a poder de plataforma, amenazas de seguridad y un sesgo persistente hacia la optimización de corto plazo.

Y si uno quiere evitar que el presentismo tecnológico le coma la cabeza, hay un antídoto excelente en Digital Modernity: WhyWeNeed to Think Historically About the Digital Age. La virtud de ese libro es que discute, de raíz, una de las fallas más recurrentes del discurso sobre IA: hablar de lo digital como si hubiera irrumpido anteayer, casi ex nihilo, cuando en realidad forma parte de una historia mucho más larga sobre modernidad, abstracción, infraestructura, esfera pública, colonialidad, poder y organización social. Smithies propone entender los sistemas digitales como una continuación, con nuevas formas y nuevas intensidades, del proyecto moderno. Eso permite leer con más espesor fenómenos que de otro modo quedan banalizados: la lógica cultural de Silicon Valley, el colonialismo digital, la infraestructura como política, la crisis epistémica del espacio público y hasta las discusiones sobre IA y emergencia. Mirar históricamente quita algo de grandilocuencia a la innovación, la saca del hype perpetuo y la devuelve al terreno donde más importa: el de las instituciones, las trayectorias largas y las relaciones de poder que sobreviven a cada nueva interfaz.

 

VI. La lección más difícil: no alcanza con poner un humano “en el loop” si ese humano ya dejó de pensar

Quizá la conclusión más importante de la GECS2026 fue también la más incómoda. El famoso human in the loop puede convertirse en una ficción tranquilizadora si el humano que queda “en el loop” sólo valida lo que la máquina ya decidió, con una mezcla de prisa, obediencia y fatiga cognitiva. El panel insistió en que la supervisión significativa no es una firma, ni una casilla tildada, ni un clic ceremonial: supone capacidad real de comprender, cuestionar, detener y, llegado el caso, apagar el sistema. Supone además alfabetización en IA, escenarios de entrenamiento y, sobre todo, una cultura psicológicamente segura para discutir outputs, sesgos y decisiones automatizadas sin que eso se lea como resistencia al progreso. La IA puede resumir un código de conducta en siete segundos; lo que no logrará es hacerse responsable cuando el Board descubra que nadie hizo las preguntas correctas.

Por eso esta edición del Newsletter, leída en conjunto, deja una idea menos glamorosa pero mucho más útil: la frontera decisiva no está entre organizaciones que usan IA y organizaciones que no la usan. Está entre organizaciones que la incorporan con gobierno, criterio y memoria institucional, y organizaciones que la adoptan como quien instala un espejo brillante. La primera puede equivocarse, pero aprende.

Una película para acompañar esta conversación: Her

Si hubiera que elegir una película para dejar resonando esta edición, Her (2013) sería una candidata natural. No porque anticipe con precisión el futuro de la inteligencia artificial, sino porque entiende algo más importante: que las tecnologías que más nos transformanson las que se deslizan con suavidad en la intimidad de nuestras rutinas, nuestras emociones y nuestra forma de pensar. La película de Spike Jonze no imagina una distopía aparatosa ni un apocalipsis de robots; imagina algo más sutil: un mundo en el que una inteligencia artificial puede volverse interlocutora, compañía, espejo afectivo y, finalmente, mediadora del vínculo que una persona mantiene consigo misma.

Her funciona como una parábola sobre algunos de los dilemas que hoy ya asoman en la conversación pública: la antropomorfización de sistemas, la dependencia emocional frente a interfaces diseñadas para parecer humanas, la delegación progresiva de juicio y la dificultad de distinguir entre asistencia, influencia y sustitución. La película recuerda que el problema nunca es sólo lo que una tecnología puede hacer, sino el lugar que le concedemos en nuestra arquitectura moral y afectiva. En ese sentido, Her no habla del amor en tiempos de algoritmos. Habla, sobre todo, de qué parte de nuestra humanidad seguimos ejerciendo cuando la máquina deja de ser sólo una herramienta.

Disclaimer

Por favor lea el descargo de responsabilidad1 .

Referencias

Acemoglu, D., Kong, D. and Ozdaglar, A. (2026) AI, Human Cognition and Knowledge Collapse. NBER Working Paper 34910. Available at: https://www.nber.org/papers/w34910(Accessed: 21 April 2026).

Browning, J. (2026) 'Ethan Mollick’s four guiding principles for using AI at work', Big Think, 18 February. Available at: https://bigthink.com/plus/ethan-mollicks-four-guiding-principles-for-using-ai-at-work/(Accessed: 21 April 2026).

Center for AI and Digital Policy (2026) Artificial Intelligence and Democratic Values. Available at: https://www.caidp.org/reports/caidp-index-2026/(Accessed: 21 April 2026).

Chandrasekhar, C.A., Pedersen, B. and Rodel, P. (2026) 'Agent Washing: Disclosure Risks in the Emerging Market for AI Agents', Harvard Law School Forum on Corporate Governance, 16 April. Available at: https://corpgov.law.harvard.edu/2026/04/16/agent-washing-disclosure-risks-in-the-emerging-market-for-ai-agents/(Accessed: 21 April 2026).

Copenhagen Institute for Futures Studies (2026) Exploring the Futures of Technology 2.0. Available at: https://www.cifs.dk/read-listen/reports-knowledge/futures-of-technology-2-0(Accessed: 21 April 2026).

Estin, L., Capuano, N. and Fallati, M. (2026) 'AI as the New Proxy Advisor: Reshaping Shareholder Activism Communications', Harvard Law School Forum on Corporate Governance, 20 April. Available at: https://corpgov.law.harvard.edu/2026/04/20/ai-as-the-new-proxy-advisor-reshaping-shareholder-activism-communications/(Accessed: 21 April 2026).

Gadri, G., Taylor, T. and Leitch, J. (2026) Futurescape: Artificial Realities. frog. Available at: https://www.frog.co/designmind/futurescape-2026-artificial-realities-human-ai-chemistry(Accessed: 21 April 2026).

Imagining the Digital Future Center (2026) 'Will superstupidity be as dangerous as superintelligence?'. Available at: https://imaginingthedigitalfuture.org/will-superstupidity-be-as-dangerous-as-superintelligence-the-question-is-not-how-much-ais-will-augment-decision-making-but-whether-humans-will-remain-involved-in-it-at-all/(Accessed: 21 April 2026).

Jarovsky, L. (2026) 'China's Approach to AI Anthropomorphism', Luiza's Newsletter, 13 January. Available at: https://www.luizasnewsletter.com/p/chinas-approach-to-ai-anthropomorphism(Accessed: 21 April 2026).

Laker, B. (2026) 'When Not to Use AI', MIT Sloan Management Review. Available at: https://sloanreview.mit.edu/article/when-not-to-use-ai/(Accessed: 21 April 2026).

Lerchner, A. (2026) The Abstraction Fallacy: Why AI Can Simulate But Not Instantiate Consciousness. Available at: https://deepmind.google/research/publications/231971/(Accessed: 21 April 2026).

New Scientist (2026) AI Isn't as Powerful as We Think | Hannah Fry [YouTube video]. 18 February. Available at: https://www.youtube.com/watch?v=iitq4Zrphdk(Accessed: 21 April 2026).

Scharfbillig, M., Lewandowsky, S., Altay, S., Van Alstyne, M., Kozyreva, A., Hertwig, R., Lorenz-Spreen, P., DiResta, R., Valenzuela, S., Egidy, S., Quattrociocchi, W. and Orben, A. (2026) Fractured reality: How democracy can win the global struggle over the information space. Luxembourg: Publications Office of the European Union. Available at: https://publications.jrc.ec.europa.eu/repository/handle/JRC144603(Accessed: 21 April 2026).

Shaw, S.D. and Nave, G. (2026) Thinking—Fast, Slow, and Artificial: How AI is Reshaping Human Reasoning and the Rise of Cognitive Surrender. OSF Preprints. Available at: https://osf.io/preprints/psyarxiv/yk25n_v1(Accessed: 21 April 2026).

Slattery, P., Saeri, A.K., Grundy, E.A.C., Graham, J., Noetel, M., Uuk, R., Dao, J., Pour, S., Casper, S. and Thompson, N. (2026) 'The AI risk repository: A meta-review, database, and taxonomy of risks from artificial intelligence', Patterns. Available at: https://www.cell.com/patterns/fulltext/S2666-3899(26)00026-7(Accessed: 21 April 2026).

Smithies, J. (2026) Digital Modernity: Why We Need to Think Historically About the Digital Age. Abingdon: Routledge. Available at: https://www.taylorfrancis.com/books/oa-mono/10.4324/9781003684398/digital-modernity-james-smithies(Accessed: 21 April 2026).

Spoelstra, S. and Butler, N. (2026) 'Algorithmic leadership and the game of business', Leadership. Advance online publication. Available at: https://journals.sagepub.com/doi/10.1177/17427150261436598(Accessed: 21 April 2026).

Stanford Institute for Human-Centered Artificial Intelligence (2026) The 2026 AI Index Report. Available at: https://hai.stanford.edu/ai-index/2026-ai-index-report(Accessed: 21 April 2026).

Using AI Is Like Driving a Car With No Licence | Prof Virginia Dignum (2026) [online video]. YouTube. Available at: https://www.youtube.com/watch?v=sCa33EuGacY(Accessed: 21 April 2026).

Vélez Maldonado, S. (2026) 'Nos están vendiendo el miedo equivocado', Futuria. Available at: https://futuria.substack.com/p/nos-estan-vendiendo-el-miedo-equivocado(Accessed: 21 April 2026).

Volkov, M. (2026) 'AI Governance: Why Companies Need a Step-by-Step Implementation Strategy', Corruption, Crime & Compliance, 31 March. Available at: https://blog.volkovlaw.com/2026/03/ai-governance-why-companies-need-a-step-by-step-implementation-strategy/(Accessed: 21 April 2026).

Wilkinson, R., Krasodomski, A., Wilkinson, I. and Varela Sandoval, F.J. (2026) Breaking the deadlock on AI governance. London: Chatham House. Available at: https://www.chathamhouse.org/2026/03/breaking-deadlock-ai-governance(Accessed: 21 April 2026).

Wood, E. (2026) 'Design Mind frogcast Ep.58 – When Human Connection Meets AI', Design Mind frogcast [podcast], 16 April. Available at: https://www.frog.co/designmind/design-mind-frogcast-ep-58-when-human-connection-meets-ai(Accessed: 21 April 2026).

Zenger, T. and Felin, T. (2026) Theory first: creating value in the age of data and AI. Available at: https://www.papermark.com/view/cmnr0cc9k000zic04t2kuc0tq(Accessed: 21 April 2026).

1 Los puntos de vista, las opiniones y las posiciones expresadas en todas las publicaciones pertenecen únicamente a los autores y no representan las de la Universidad Austral, el IAE Business School o las empresas o instituciones que las apoyan. No se garantiza la exactitud, integridad y validez de las expresiones hechas en este artículo. No aceptamos ninguna responsabilidad por errores, omisiones o representaciones. Los derechos de autor de este contenido pertenecen a los autores y cualquier responsabilidad con respecto a la infracción de los derechos de propiedad intelectual recae en ellos. En ningún caso podrá ni deberá considerarse la información, análisis y opiniones brindadas en todo o en parte de este artículo como asesoramiento, recomendaciones u opiniones profesionales o legales. El lector que necesite tomar decisiones sobre los temas aquí tratados deberá asesorarse específicamente con profesionales capacitados que evalúen las características, normas legales y conceptos aplicables a su caso específico.