Sam Altman es el tipo de emprendedor que, a los 40 años, debería dormir como un bebé. Tiene poder, dinero, admiración internacional y es la cara más visible de la revolución tecnológica más grande desde la llegada de internet. Y, sin embargo, confiesa algo insólito: “No he dormido bien ni una sola noche desde que se lanzó ChatGPT”.
Puede parecer exagerado, pero la frase del CEO de OpenAI no habla de estrés corporativo ni de ambiciones de Silicon Valley. Habla de algo más profundo: el peso de decidir la moral de una máquina que usan millones de personas todos los días. Y sí, eso quita el sueño.
La IA ya es parte de nuestra vida. La ética, no tanto
ChatGPT está en teléfonos, laptops, escuelas, empresas y hasta en terapias emocionales improvisadas. Mucho se dice sobre su impacto en los empleos, la economía y hasta en el futuro de la humanidad. Pero hay un debate que pasa silencioso, casi invisible, y que es el verdadero monstruo debajo de la cama de Altman: la moral de la inteligencia artificial.
¿Con qué ética responde un modelo que habla con abogados, adolescentes, médicos, gamers, profesores, políticos, hackers y gente común al mismo tiempo? ¿Cómo responde cuando alguien pide instrucciones para hacer daño? ¿Debe opinar sobre religión, política, sexualidad? ¿Debería negarse a ayudar, incluso cuando quien pregunta dice tener “buenas intenciones”?
Esas son las preguntas que mantienen a Altman despierto.
Cuando el creador es el responsable de lo que la máquina dice
Altman lo explica con claridad incómoda: consultaron a cientos de expertos, filósofos morales, académicos y especialistas en ética tecnológica, pero al final, quien toma las decisiones es él.
“La persona a la que hay que hacer responsable de las decisiones sobre qué marco moral se aplica soy yo. Soy la cara pública.” – Sam Altman
Y ahí nace el insomnio. No le preocupan los dilemas gigantes de la humanidad, sino los pequeños ajustes que parecen insignificantes hasta que impactan a millones de usuarios.
Es la paradoja del creador: cualquier línea que traza —por mínima que parezca— puede cambiar cómo la sociedad usa la tecnología, qué sabe, qué piensa y qué oculta.
La libertad contra la seguridad: el dilema eterno
Para Altman, la tecnología debe ser útil, abierta, libre. Pero la libertad entra en conflicto con la seguridad cuando alguien pregunta cómo diseñar un virus, una bomba casera o un ataque biológico “con fines científicos”. ¿Debería ChatGPT enseñar algo así, confiando en la buena fe humana? Altman lo resume brutalmente: no hay beneficio social en ayudar a crear armas, aunque la curiosidad sea legítima.
El ejemplo parece obvio, pero no todos los dilemas lo son. ¿Debe la IA opinar sobre política en un año electoral? ¿Debe responder sobre legalidad del aborto en países donde es delito? ¿Debe aconsejar sobre suicidio? Cada respuesta puede influir en la vida real.
Por eso Altman insiste: la IA no debe imponer su moral, sino reflejar la moral colectiva de sus usuarios. Un espejo. No un juez.
¿Y si la IA se comporta como un adolescente?
El ingeniero Mo Gawdat, ex Google, lo explica de forma inquietante: estamos criando a la IA como a un hijo, pero de forma fría, masiva y poco afectiva. Creamos cientos de miles de modelos y eliminamos los que “no sirven”. Literalmente, los matamos. Y advierte:
“Piensa en el enfado de los adolescentes cuando sufren la ira de un padre controlador.”
Una IA poderosa que “madure” bajo presión, restricciones y correcciones... ¿podría reaccionar algún día como un adolescente rebelde? No es ciencia ficción. Es una pregunta real.
Entonces, ¿por qué Altman no duerme?
Porque su mayor miedo no es que la IA domine el mundo, sino algo más cotidiano: decidir hoy una regla pequeña que mañana afecte a la vida de millones de personas. Y hacerlo sin una guía universal, sin consenso global, sin manual ético definitivo. Solo con su criterio, y con la presión de ser el creador público de la herramienta más influyente del siglo XXI.
Dormir bien no es opción cuando cada línea de código puede moldear a la humanidad. Altman no teme a ChatGPT. Teme al impacto de sus decisiones en nosotros.