¿Por qué Sam Altman, creador de ChatGPT, duerme tan mal?

No es agotamiento corporativo. No es estrés tecnológico. Es algo más complejo: la responsabilidad moral de la inteligencia artificial.

por-que-sam-altman-creador-de-chatgpt-duerme-tan-mal.jpg

UNSPLASH

Sam Altman es el tipo de emprendedor que, a los 40 años, debería dormir como un bebé. Tiene poder, dinero, admiración internacional y es la cara más visible de la revolución tecnológica más grande desde la llegada de internet. Y, sin embargo, confiesa algo insólito: “No he dormido bien ni una sola noche desde que se lanzó ChatGPT”.
Puede parecer exagerado, pero la frase del CEO de OpenAI no habla de estrés corporativo ni de ambiciones de Silicon Valley. Habla de algo más profundo: el peso de decidir la moral de una máquina que usan millones de personas todos los días. Y sí, eso quita el sueño.

La IA ya es parte de nuestra vida. La ética, no tanto

ChatGPT está en teléfonos, laptops, escuelas, empresas y hasta en terapias emocionales improvisadas. Mucho se dice sobre su impacto en los empleos, la economía y hasta en el futuro de la humanidad. Pero hay un debate que pasa silencioso, casi invisible, y que es el verdadero monstruo debajo de la cama de Altman: la moral de la inteligencia artificial.
¿Con qué ética responde un modelo que habla con abogados, adolescentes, médicos, gamers, profesores, políticos, hackers y gente común al mismo tiempo? ¿Cómo responde cuando alguien pide instrucciones para hacer daño? ¿Debe opinar sobre religión, política, sexualidad? ¿Debería negarse a ayudar, incluso cuando quien pregunta dice tener “buenas intenciones”?
Esas son las preguntas que mantienen a Altman despierto.

Cuando el creador es el responsable de lo que la máquina dice

Altman lo explica con claridad incómoda: consultaron a cientos de expertos, filósofos morales, académicos y especialistas en ética tecnológica, pero al final, quien toma las decisiones es él.
“La persona a la que hay que hacer responsable de las decisiones sobre qué marco moral se aplica soy yo. Soy la cara pública.” – Sam Altman
Y ahí nace el insomnio. No le preocupan los dilemas gigantes de la humanidad, sino los pequeños ajustes que parecen insignificantes hasta que impactan a millones de usuarios.
Es la paradoja del creador: cualquier línea que traza —por mínima que parezca— puede cambiar cómo la sociedad usa la tecnología, qué sabe, qué piensa y qué oculta.

sam-altman-creador-de-chatgpt.jpg

GETTY IMAGES

La libertad contra la seguridad: el dilema eterno

Para Altman, la tecnología debe ser útil, abierta, libre. Pero la libertad entra en conflicto con la seguridad cuando alguien pregunta cómo diseñar un virus, una bomba casera o un ataque biológico “con fines científicos”. ¿Debería ChatGPT enseñar algo así, confiando en la buena fe humana? Altman lo resume brutalmente: no hay beneficio social en ayudar a crear armas, aunque la curiosidad sea legítima.
El ejemplo parece obvio, pero no todos los dilemas lo son. ¿Debe la IA opinar sobre política en un año electoral? ¿Debe responder sobre legalidad del aborto en países donde es delito? ¿Debe aconsejar sobre suicidio? Cada respuesta puede influir en la vida real.
Por eso Altman insiste: la IA no debe imponer su moral, sino reflejar la moral colectiva de sus usuarios. Un espejo. No un juez.

¿Y si la IA se comporta como un adolescente?

El ingeniero Mo Gawdat, ex Google, lo explica de forma inquietante: estamos criando a la IA como a un hijo, pero de forma fría, masiva y poco afectiva. Creamos cientos de miles de modelos y eliminamos los que “no sirven”. Literalmente, los matamos. Y advierte:
“Piensa en el enfado de los adolescentes cuando sufren la ira de un padre controlador.”
Una IA poderosa que “madure” bajo presión, restricciones y correcciones... ¿podría reaccionar algún día como un adolescente rebelde? No es ciencia ficción. Es una pregunta real.

Entonces, ¿por qué Altman no duerme?

Porque su mayor miedo no es que la IA domine el mundo, sino algo más cotidiano: decidir hoy una regla pequeña que mañana afecte a la vida de millones de personas. Y hacerlo sin una guía universal, sin consenso global, sin manual ético definitivo. Solo con su criterio, y con la presión de ser el creador público de la herramienta más influyente del siglo XXI.
Dormir bien no es opción cuando cada línea de código puede moldear a la humanidad. Altman no teme a ChatGPT. Teme al impacto de sus decisiones en nosotros.

Te interesará
Al final, te das cuenta de que caminar no es un lujo, sino un indicador de qué tan bien está diseñada una ciudad.
Lo que engancha con este tipo de historias es entender cómo alguien termina creyendo, obedeciendo y, en el peor de los casos, perdiéndose dentro de un grupo.
Aquí hay clásicos, novelas contemporáneas y algunas apuestas más oscuras.
El Amazonas, Belice y Vancouver invitan a reconectar con la naturaleza y a viajar con una mirada más consciente.
Instalada en el Centro de las Artes Inmersivas, la exposición está diseñada como un trayecto sensorial de aproximadamente 45 minutos.
El cambio de liderazgo abre una pregunta inevitable: ¿seguirá Apple el mismo camino o veremos un giro?