Aunque Stephen Hawking nunca obtuvo un Premio Nobel, su legado científico y humano trasciende generaciones. El célebre físico teórico, fallecido en 2018, fue uno de los primeros en advertir que la inteligencia artificial (IA) representaba tanto una oportunidad sin precedentes como un riesgo existencial para la humanidad. Reconocía su potencial en medicina, ciencia e industria, pero temía que la tecnología terminara superando el control humano, generando consecuencias éticas y sociales impredecibles.
Una de sus predicciones más precisas apuntaba al mercado laboral: Hawking aseguró que la expansión de las máquinas inteligentes provocaría la desaparición o transformación profunda de millones de empleos. Lo que en su momento sonaba lejano hoy es una realidad palpable, con sistemas de IA capaces de reemplazar tareas creativas, técnicas y analíticas a una velocidad vertiginosa. El científico británico advertía que, sin una regulación clara, la automatización masiva podría ampliar la desigualdad y desestabilizar economías enteras.
Por eso insistía en la necesidad de establecer límites éticos y legislativos para guiar el desarrollo de la inteligencia artificial. “Crear una IA que iguale o supere la inteligencia humana podría ser el mayor error de la historia”, llegó a decir en una de sus últimas entrevistas. A medida que gobiernos y empresas compiten por liderar esta nueva era tecnológica, las advertencias de Hawking resuenan con más fuerza que nunca: el desafío no es detener la IA, sino asegurar que avance sin poner en riesgo nuestra humanidad.
