A cuarenta años de la tragedia, el transbordador Challenger sigue funcionando como un espejo para cualquier organización que tome decisiones en condiciones de incertidumbre, presión y visibilidad pública: expone con crudeza cómo se degrada el criterio ético del juicio cuando el cronograma se convierte en identidad, cuando la “evidencia” se negocia y cuando el disenso deja de ser un insumo para transformarse en una amenaza. Este aniversario nos invita mirar de frente el proceso —los incentivos, la inversión de la carga de la prueba, la burocracia como anestesia— y reconocer que, en el corazón de la tragedia, hubo una decisión que se fue fabricando en capas, con frases aparentemente razonables y pequeñas concesiones que parecían transitorias. En ese borde, donde el riesgo se vuelve abstracto y lo humano queda fuera de cuadro, la ética debe ser uno de los criterios centrales para decidir.
Por Raúl Saccani
El 28 de enero de 1986 amaneció despejado y gélido en Cabo Cañaveral. A las 11:38, el transbordador despegó y, durante 73 segundos, todo pareció obedecer a esa coreografía que solo la ingeniería —cuando funciona— sabe ofrecer. Después, a 46.000 pies, el vehículo se desintegró en una bola de fuego.
La tentación de llamar “accidente” a lo que ocurrió ese día es comprensible: “accidente” suena a azar, a mala suerte, a una física caprichosa. Pero en la historia del Challenger, lo decisivo fue el modo en que la NASA aprendió —paso a paso, vuelo a vuelo— a convivir con señales de alerta sin dejar que interrumpieran la música del cronograma. En otras palabras: el desastre se incubó como se incuban muchas decisiones éticamente fallidas en contextos de alta complejidad, no por ignorancia técnica, sino por una combinación más peligrosa: presión, hábito y silencio.
El detalle técnico, contado con precisión, no reduce la tragedia: la vuelve más humana. A los 0,638 segundos del despegue, una bocanada de humo negro salió de la junta de campo del cohete propulsor derecho, justo donde los ingenieros temían el fallo. El frío impidió que las juntas tóricas sellaran como debían. La fuga, irónicamente, se “cauterizó” por un tiempo con óxido de aluminio solidificado —un sello cerámico improvisado por la combustión— y el sistema siguió volando con una herida mortal, momentáneamente contenida. A los 59 segundos, al atravesar Max Q y enfrentar vientos de cizalladura inusualmente fuertes, la estructura se flexionó: ese sello frágil se rompió, apareció una llama, el tanque externo colapsó trece segundos después. El desenlace, en ese sentido, estaba escrito.
A cuarenta años de distancia, las enseñanzas sobre la secuencia causal y ética de la decisión siguen vigentes. Hubo una frase —en apariencia gerencial— que sintetizó un patrón organizacional: era “hora de tomar una decisión de gestión”, anulando la recomendación técnica de los propios expertos. Y cuando algunos ingenieros intentaron una defensa final, con fotos y una metáfora brutal (un “precipicio” desconocido), se les respondió que no había “información nueva” y que se sentaran. No sólo es mala comunicación, también representa la pedagogía del silenciamiento.
La noche de la teleconferencia
La noche del 27 de enero de 1986, la meteorología se convirtió en el detonante de una crisis latente. Un frente frío avanzaba sobre Florida, con pronósticos que anticipaban temperaturas tan bajas como 18°F (-7.8°C) para la mañana siguiente.
- La Alarma y la Convocatoria: Allan McDonald, el representante de más alto rango de Morton Thiokol en el Cabo Cañaveral, recibió una llamada de sus ingenieros en Utah. Estaban profundamente preocupados por el comportamiento de las juntas tóricas (O-rings) de los cohetes propulsores a temperaturas tan extremas, muy por debajo de cualquier experiencia previa. Estas juntas, cruciales para sellar los segmentos de los cohetes, ya habían mostrado vulnerabilidades. En un lanzamiento anterior a 53°F (11.7°C), se había encontrado hollín entre las juntas primaria y secundaria, indicando que la primaria había perdido su sello, un fallo atribuido precisamente al frío. Sorprendentemente, esta información crítica nunca se había compartido con los astronautas, ni siquiera con Ellison Onizuka, quien voló en aquella misión. Con esta ominosa historia en mente, McDonald actuó con diligencia: pidió a sus ingenieros que prepararan una presentación y organizó una teleconferencia de emergencia a tres bandas entre Thiokol en Utah, y los gerentes de la NASA en el Cabo Cañaveral y en el Marshall Space Flight Center en Huntsville.
- La Presentación de los Ingenieros: En la teleconferencia, que comenzó pasadas las 8 de la noche, los ingenieros de Thiokol, liderados por Roger Boisjoly y Arnie Thompson, expusieron sus datos y sus temores. Argumentaron que las bajas temperaturas harían que las juntas tóricas de caucho perdieran su elasticidad, volviéndose rígidas e incapaces de sellar adecuadamente la brecha generada por la ignición de los cohetes. Tras la presentación, el vicepresidente de ingeniería de Thiokol, Bob Lund, emitió una recomendación formal e inequívoca: no lanzar por debajo de los 53°F (11.7°C). Fue un momento sísmico. Por primera vez en la historia del programa del transbordador, un contratista principal recomendaba formalmente no proceder con un lanzamiento.
- La Reacción de la NASA: Incredulidad y Hostilidad. La respuesta de la NASA no fue de cautela, sino de abierta hostilidad. Los gerentes se mostraron "horrorizados" y "consternados" por la recomendación. Cuestionaron la validez de los datos de los ingenieros, argumentando que no eran concluyentes. La presión del cronograma se hizo explícita en las palabras de Larry Mulloy, jefe del programa de cohetes sólidos de la NASA, quien espetó con sarcasmo: "¿Cuándo diablos quieren que lo lance, en abril?". George Hardy, un alto directivo de Marshall, declaró estar "consternado" por la recomendación basada en la información presentada, aunque matizó que no iría en contra de la recomendación del contratista. La atmósfera se había enrarecido; la discusión ya no era una colaboración técnica para evaluar un riesgo, sino una confrontación.
Esa noche, la teleconferencia entre NASA y Morton-Thiokol en la que se puso arriba de la mesa el riesgo que representaba baja temperatura para el funcionamiento correcto de la junta tórica, derivó hacia una discusión sobre “evidencia” donde la palabra dejó de significar lo mismo para todos. Para la NASA, evidencia era justamente lo que faltaba: no había experiencia validada en ese rango térmico, y por lo tanto no venían motivos para no lanzar. Para los ingenieros de Morton-Thiokol, evidencia era otra cosa: una demostración de que el fallo sería inevitable. En ese desplazamiento se juega mucho más que un malentendido: es el momento en que un sistema confunde incertidumbre con permiso y convierte la ausencia de datos en un argumento a favor de avanzar.
Lo que sucedió a continuación es, quizás, la lección más crucial de este caso. Ante la resistencia de los ingenieros, la gerencia de la NASA, en lugar de aceptar la recomendación conservadora, ejecutó una maniobra dialéctica que alteró fatalmente la lógica de la gestión de riesgos.Como lo describió la Comisión Presidencial que investigó el accidente, el proceso de toma de decisiones fue “defectuoso”. Los gerentes de Thiokol fueron puestos en una posición insostenible. La pregunta dejó de ser: “¿Pueden probarnos que el lanzamiento es seguro?”. Se transformó en: “¿Pueden probarnos, de manera definitiva, que fallará?”.
Esta inversión es un error cardinal en la toma de decisiones en entornos de alto riesgo. Exigir la prueba de un fallo con certeza absoluta es una tarea casi imposible, especialmente cuando se trata de sistemas complejos operando fuera de sus parámetros conocidos. La ausencia de pruebas de un fallo inminente fue interpretada, erróneamente, como una prueba de seguridad.
Presionado, Joe Kilminster, el jefe de McDonald, pidió un receso de cinco minutos fuera de línea para una discusión interna en Thiokol. Durante este “caucus”, el gerente general de la compañía, Jerry Mason, pronunció una frase que selló el destino del Challenger: "¿Soy el único aquí que piensa que está bien seguir adelante con el plan de lanzamiento?". Fue una declaración intimidatoria que silenció la disidencia. Aunque los ingenieros Boisjoly y Thompson intentaron una última y desesperada defensa, mostrando fotos y argumentando que se dirigían hacia un "precipicio" desconocido, su voz fue acallada. Se les dijo que no presentaban “información nueva” y que se sentaran. La gerencia había decidido que era hora de tomar una “decisión de negocios”, anulando la recomendación técnica de sus propios expertos.Lo que cambió fue el clima de la conversación: el “no” técnico empezó a ser tratado como un “problema” de negocio. La decisión dejó de ser “¿está calificado para volar?” y pasó a ser “¿podemos sostener un rechazo al lanzamiento frente a un cliente que exige avanzar?”. Ese es el punto en que el criterio de excelencia se degrada: ya no se optimiza seguridad, se optimiza fricción institucional.
Después vino la burocracia: una vez revertida la recomendación, el sistema pidió —como suelen pedir los sistemas— un documento, una firma, una constancia que cerrara el circuito formal. Es un gesto que en el mundo corporativo conocemos bien: cuando la realidad es ambigua, se la reemplaza por un papel que “ordena” la ambigüedad. Pero ese orden es aparente. La firma no prueba que el riesgo desapareció; prueba, apenas, que alguien aceptó cargarlo. Y cuando un proceso llega a necesitar una firma para tapar una duda, lo que está fallando no es el formulario: es el gobierno del riesgo.
La reconstrucción narrativa del contexto público agrega una capa decisiva: no era solo ingeniería discutiendo con gestión; era gestión discutiendo con un escenario. En este clima se insertaba, además, un componente simbólico de enorme alcance: la presencia de Christa McAuliffe, la primera docente seleccionada para volar al espacio. Su participación otorgaba al vuelo un carácter pedagógico y mediático que trascendía lo técnico. Una nueva postergación habría desplazado su esperada lección desde la órbita a un día sábado, reduciendo el impacto en los millones de estudiantes que seguirían la transmisión. El deseo de evitar esta pérdida de oportunidad se convirtió, aunque tácitamente, en un factor adicional que condicionó la disposición de los responsables a aceptar riesgos crecientes
El programa “Teacher in Space”, las cámaras, la promesa de una épica civil, y el cansancio acumulado por demoras anteriores convirtieron el cronograma en algo más que un plan: lo volvieron identidad, reputación, mensaje político. En ese encuadre, posponer no era prudencia sino “fracaso”; y lanzar, aun con señales de alerta, se parecía peligrosamente a “cumplir”. Cuando el entorno transforma el lanzamiento en espectáculo, la ética queda expuesta a la necesidad de que el mundo vea continuidad, aunque por dentro el sistema esté pidiendo pausa.
Lo humano fuera de cuadro
En términos de toma de decisiones, lo que se quebró esa noche fue algo anterior al O-ring: se quebró la lógica del riesgo. Se invirtió la carga de la prueba, esto es, la obligación de demostrar seguridad se transformó en la exigencia de demostrar la inevitabilidad del fallo; y así, la ausencia de evidencia concluyente empezó a operar como sustituto de la evidencia de ausencia de riesgo. Es un desplazamiento sutil, pero letal: cuando la pregunta cambia de “¿está calificado?” a “¿pueden probar que va a fallar?”, el sistema ya está negociando con lo innegociable.
Este mecanismo es familiar para cualquiera que haya visto de cerca decisiones bajo presión en empresas, comités o directorios. Cuando un proyecto tiene patrocinadores poderosos, cuando el costo reputacional del “no” parece alto, cuando el calendario se vuelve identidad, aparecen atajos cognitivos que tienen nombre —y, peor aún, tienen prestigio—: “se espera de mí”, “no podemos quedar como indecisos”, “ya volamos antes con anomalías”, “lo resolvemos en el camino”. En el lenguaje del compliance moderno, es la normalización de la desviación: cada vuelo que “sale bien” con fallas parciales refuerza la ilusión de tolerancia del sistema y erosiona la percepción del peligro real. Y si a eso le sumamos el framing —esa forma en que un problema se “enmarca” como negocio, política o reputación y deja afuera lo humano—, la dimensión ética como criterio para decidir empieza a volverse invisible.
En esa invisibilización hay una escena que funciona como espejo para cualquier organización: la del disidente. En Cabo Cañaveral, Allan McDonald (director del Space Shuttle Solid Rocket Motor Projectde Morton-Thiokol) negó a firmar la autorización. El texto rescata su negativa como un acto de inteligencia práctica: negarse a ser el nombre propio pegado a una decisión que sabía viciada. Y aunque sus objeciones fueron valientes, la maquinaria siguió: su jefe firmó en su lugar y envió el documento por fax. La organización obtuvo lo que necesitaba: no la verdad, sino un papel.
Aquí aparece un punto que, en ética de los negocios, suele incomodar a quienes buscan soluciones rápidas: no basta con “tener buenos valores”, hace falta infraestructura moral. En una organización se mide, entre otras cosas, por su relación con las malas noticias. Es decir, un sistema sano requiere que las malas noticias circulen hacia arriba sin temor a represalias; en Challenger ocurrió lo contrario: la hostilidad frente a las advertencias técnicas y la intimidación sobre ingenieros revelaron una cultura en la que disentir se pagaba caro.
En compliance solemos hablar de “canales”, “procesos”, “mecanismos”. Pero el desafío real no es construir un buzón: es construir credibilidad. Es construir el tipo de clima en el que alguien se anime a frenar un tren sin quedar convertido en el problema. Porque en organizaciones complejas, si no protegemos esa señal —si la castigamos, si la ridiculizamos, si la burocratizamos—, el sistema aprende otra cosa: aprende a callar.
Y todavía falta la parte más difícil de contar, la que vuelve irrelevante cualquier cinismo sofisticado. La tripulación, contrariamente a la creencia inicial, no murió instantáneamente: la cabina presurizada se separó intacta y siguió una trayectoria balística durante casi tres minutos. La evidencia de que varios paquetes de aire de emergencia personales (PEAPs) fueron activados sugiere que al menos algunos estuvieron conscientes durante la caída. Es decir: hubo tiempo. Tiempo para entender. Tiempo para intentar. Tiempo para mirar a alguien.
Ese dato transforma la discusión de “gestión del riesgo” en una pregunta ética sin metáforas: ¿qué hacemos, en nuestras organizaciones, con la vida ajena cuando la vida ajena no está sentada en la sala? Porque muchas decisiones críticas se toman exactamente así: con los afectados fuera de cuadro. En el mundo corporativo, ese “afuera” puede ser un operario, un cliente, un paciente, una comunidad, un usuario. El riesgo —cuando se vuelve abstracto— deja de doler, y entonces se vuelve negociable.
Cuarenta años después, la enseñanza no se reduce a “escuchen a los expertos” (aunque también). Es más incómoda: aprender a resistir la tiranía del cronograma cuando lo que está en juego es irreparable; sostener la carga de la prueba donde corresponde; y diseñar culturas donde la disidencia no sea una traición, sino una función vital del sistema.
Pero hay un último matiz, especialmente relevante para quienes formamos líderes: esto no se entrena con un webinar. Se practica en el día a día, con el ejemplo, porque todos los días gente bien intencionada toma malas decisiones y no hay manual que alcance. Hace falta preparación constante para reconocer dilemas en zonas grises, especialmente bajo presión.
Tal vez por eso el aniversario del Challenger no debería leerse como una efeméride de un accidente de seguridad, sino como un examen para cada uno de nosotros: ¿qué pensamiento crítico estamos haciendo cuando decidimos? ¿Qué está contando como evidencia? ¿A quién estamos dejando afuera del cuadro? Y, sobre todo, ¿qué tendría que pasar —en nuestro comité, en nuestro directorio, en nuestra “teleconferencia” cotidiana— para que el “no” deje de ser una insolencia, un palo en la rueda del negocio, y vuelva a ser lo que en realidad es: un acto de cuidado.
Videos
Disclaimer
Por favor lea el descargo de responsabilidad1.
Referencias
- Boisjoly, R. (1987). Ethical decisions – Morton Thiokol and the Space Shuttle Challenger disaster. American Society of Mechanical Engineers Annual Meetings.
- Collins, H., & Pinch, T. (2002). The naked launch: Assigning blame for the Challenger explosion. In Dr. Golem: How to think about medicine (pp. 45–72). Cambridge University Press.
- Harrison, E. F. (1987). The Challenger: The anatomy of a flawed decision. Columbia University Press.
- National Aeronautics and Space Administration. (1986). Report of the Presidential Commission on the Space Shuttle Challenger accident (The Rogers Commission Report). Washington, DC: U.S. Government Printing Office.
1 Los puntos de vista, las opiniones y las posiciones expresadas en todas las publicaciones pertenecen únicamente a los autores y no representan las de la Universidad Austral, el IAE Business School o las empresas o instituciones que las apoyan. No se garantiza la exactitud, integridad y validez de las expresiones hechas en este artículo. No aceptamos ninguna responsabilidad por errores, omisiones o representaciones. Los derechos de autor de este contenido pertenecen a los autores y cualquier responsabilidad con respecto a la infracción de los derechos de propiedad intelectual recae en ellos. En ningún caso podrá ni deberá considerarse la información, análisis y opiniones brindadas en todo o en parte de este artículo como asesoramiento, recomendaciones u opiniones profesionales o legales. El lector que necesite tomar decisiones sobre los temas aquí tratados deberá asesorarse específicamente con profesionales capacitados que evalúen las características, normas legales y conceptos aplicables a su caso específico.










