ChatGPT: a un año de su creación, su desarrollador Sam Altman regresa recargado a OpenAI

El 30 de noviembre, los ingenieros informáticos liderados por Sam Altman, despedido hace una semana y reincorporado casi en el acto, celebrarán el primer aniversario de una herramienta fundamental de la cuarta revolución industrial.

La criatura informática que cumplirá un año tuvo un 2023 vertiginoso. El universo de las ciencias de la información tiene un antes y un después del 30 de noviembre de 2022 cuando la empresa tecnológica OpenAI lanzó, para toda la comunidad, un nuevo modelo de lenguaje de inteligencia artificial GPT-4.

Desde entonces, en las sociedades donde se introdujo esta nueva herramienta informática, han comenzado a mutar en un proceso que abre innumerables posibilidades de cambios en los sectores del trabajo, el ocio, la cultura, la ciencia y la política, y se posiciona como uno de los pilares de la cuarta revolución industrial a la que asiste la Humanidad que le permitirá generar un boom de productividad y bienestar económico donde se aplique.

Si bien la Inteligencia artificial es una de las vigas en las que se sostiene el andamiaje de esta nueva etapa superior del capitalismo, no es la única, la digitalización de los servicios, de las manufacturas industriales a través de la robotización y de la Internet de las Cosas, están provocando, de manera sigilosa, un cambio en el statu quo en todo el mundo sin distinción de regímenes políticos, credos o niveles de vida de las sociedades.

En ese contexto, el debate pasa, a un año de la creación del ChatGPT, por dilucidar si la creación de mentes tan brillantes como las de Altman pero, también, las de Mira Murati, directora de tecnología de OpenAI; del científico jefe de la start up, Ilya Suskever; la de Greg Brockman, presidente de la compañía; o la de Geoffrey Hinton, padrino de la inteligencia artificial que junto a su equipo desarrolló el corazón de los chatbots como el que revolucionó la sociedad hace un año, no está dando vida a un nuevo monstruo similar al creado por el Dr. Frankenstein en la novela de Mary Shelley.

Las alarmas se acaban de disparar luego del insólito desenlace del despido y posterior reincorporación a la empresa OpenAI de su alma mater, Sam Altman.

La razón de una decisión laboral que trascendió el ámbito de las empresas tecnológicas e impactó en todo el mundo se debió a que “varios investigadores escribieron una carta a la junta directiva advirtiendo sobre un poderoso descubrimiento de inteligencia artificial que, según dijeron, podría amenazar a la humanidad”, según testimonios recabados por Reuters.

Se habla en voz baja de un proyecto denominado Q star (Q*) que daría un impulso extra a la inteligencia artificial general que tendría implicancias decisivas en el ámbito laboral porque operaría como sistemas autónomos que superan, por lejos, a los humanos en la mayoría de las tareas económicamente importantes.

La nueva tecnología funciona como la búsqueda frenética de oro y la mayoría de los emprendedores informáticos avanzan y comercializan sus desarrollos sin comprender las consecuencias y el impacto social que puedan tener.

Microsoft no soportó tanta mesura de la junta directiva de OpenAI, y, Satya Nadella, su director ejecutivo, ofreció sus centros de investigación para el equipo de Altman si era definitivamente desplazado.

La presión surtió efecto y Sam Altman regresó recargado tras cinco días de estar cesanteado. Y, lo hizo, con nuevos integrantes de la junta directiva, entre ellos, Larry Summers, ex secretario del Tesoro de Estados Unidos y Bret Taylor, ex director de Salesforce Inc.

Ahora bien, la polémica por el peligro del desarrollo de la inteligencia artificial continúa.

Precisamente, el pionero de la IA, Geoffrey Hinton, reconoció que renunció a su puesto ejecutivo en Google, donde trabajó durante más de una década y se convirtió en una de las voces más respetadas en este campo, a fin de poder hablar libremente sobre los riesgos de la IA.

Para que quede en blanco sobre negro, la profundidad de la polémica por los riesgos de la IA, Hinton está arrepentido de la creación de su vida.

En recientes declaraciones al New York Times afirmó “Me consuelo con la excusa habitual: si yo no lo hubiera hecho, habría sido alguien más”.

Para Kevin Roose, autor del best seller, Futureproof: 9 Rules for Humans in the Age of Automation, (nueve reglas para los humanos en la era de la automatización), “Por el lado positivo, GPT-4 es un poderoso motor para la creatividad, y no hay manera de conocer los nuevos tipos de producción científica, cultural y educativa que podría impulsar”.

El experto reseña como OpenAI se asoció a organizaciones como Be My Eyes, una start up que fabrica tecnología para personas con discapacidades visuales, o Khan Academy, para crear tutores de inteligencia artificial para estudiantes, pero también reconoce los riesgos.

Y, como siempre, lo que más se teme es a lo desconocido.

Una extraña característica de los actuales modelos de lenguaje de inteligencia artificial es que a menudo actúan de maneras que sus creadores no anticipan, o adquieren habilidades para los que no fueron programados específicamente”, afirma Roose.

En síntesis, no está claro hasta donde pueden desarrollarse de manera autónoma porque, por ejemplo, antes que OpenAI pusiera frenos para que el ChatGPT no ofreciera datos de como comprar un arma de manera ilegal, el algoritmo ya lo había hecho. Los técnicos debieron solucionar este ítem para que no responda si alguien pregunta por ello.

En ese sentido, las idas y vueltas en torno a la permanencia de Sam Altman al frente de OpenAI, enseñan a la opinión pública el estado actual de un debate, de incierto final, en torno a los riesgos inherentes al desarrollo de la inteligencia artificial.

En Argentina, el experto Gustavo Guaragna, CEO de Snoop Consulting explicó, “Respecto al producto, hay que entender que ChatGPT es solo uno de los productos o una de las cosas que se visualizan, pero que el objetivo principal de la compañía de OpenAI no es el chat, sino que es construir una inteligencia artificial general y, a partir de ella, una superinteligencia, es decir, una inteligencia que sea superior al ser humano y hacerlo dentro de un marco de seguridad. Las dos personas que fueron desplazadas del directorio eran las dos únicas mujeres que había en el directorio de OpenAI y eran quienes principalmente velaban por el tema de que el desarrollo y el avance de la tecnología no se puedan volver en contra de la humanidad”.

Este debate que recuerda a aquel de “apocalípticos e integrados” de Umberto Eco, sólo que el semiólogo italiano se refería a la influencia de los medios masivos de comunicación en la sociedad, ha llevado a que el emprendedor y tecnólogo, Santiago Bilinkis, escribiera un libro, “Artificial”, sobre la IA, en colaboración con el neurocientífico Mariano Sigman.

Para el fundador de Officenet, el mundo se mueve a un ritmo muy veloz. “Internet tiene tres décadas, y todavía hay muchas empresas que están intentando adaptarse a la transformación digital. Por el contrario, la IA, no nos dará ese tiempo. Este cambio se dará en los próximos 5 a 10 años, y las empresas que no se adapten tendrán serios problemas”.

En recientes declaraciones al diario La Nación, Bilinkis se mostró preocupado por una arista biológica que impacta en los individuos ante el desarrollo de la IA.

“Cada vez que delegamos algo en una tecnología, perdemos habilidades y dejamos de valernos por nosotros mismos. Si delegamos en las máquinas las tareas cognitivas, corremos el riesgo de perder la capacidad de pensar. Porque la inteligencia es la habilidad que distingue a los humanos frente a otras especies y cuando la máquina empieza hacer aquello en lo que nos destacamos, el tema nos interpela”, advirtió.

Sin embargo, el tiempo es veloz y la competencia se desató. Meta, Google, Microsoft, X.AI y OpenAI están inmersos en una competencia para dominar el desarrollo de los denominados grandes modelos de lenguaje, LLM- large language models, que vienen acaparando las inversiones tecnológicas desde la irrupción de ChatGPT.

Para Gustavo Guaragna, lo que sucedió con OpenAI se enmarca en la competencia  de titanes en Silicon Valley, “…al haberse estructurado en una compañía de mercado orientada al profit, a la ganancia, y que tiene que mostrar resultados por el profit, está en una carrera que otras empresas no la están, hay que señalar esto, de liberar productos y presionando a todo el resto del mercado a sacar productos de tecnología que quizás no han sido lo suficientemente probadas o no estén lo suficientemente seguras”.

Un pedido de prudencia, un camino difícil de adoptar, por las posibilidades de dominio que otorga la revolución tecnológica que estamos viviendo.

Una revolución que tendrá un impacto ético si se confirma el vaticinio del filósofo Yuval Noah Harari, “la inteligencia artificial está redefiniendo los contornos de nuestra civilización y (…) después de todo, no somos la cúspide de la creación”.

Fuente: NA