En el corazón de la disputa OpenAI de Altman había un artículo de investigación: esto es lo que decía

En el corazón de la disputa OpenAI de Altman había un artículo de investigación: esto es lo que decía

Esto no es un consejo de inversión. El autor no tiene posición en ninguna de las acciones mencionadas.

Después de un fin de semana notable en Silicon Valley en el que su última innovación, la IA, quedó en el centro de la política típica de las salas de juntas corporativas, el ex director ejecutivo de OpenAI, Sam Altman, regresó triunfalmente a su empresa. La fricción de Altman con la junta directiva de OpenAI ha provocado mucho debate en las redes sociales y en los medios tradicionales, y se cree que los desacuerdos surgen de la división entre OpenAI y la naturaleza lucrativa/sin fines de lucro de su holding.

Un artículo de investigación en el corazón del derrocamiento de Altman caracterizó el enfoque de «señalización» de OpenAI como inadecuado

Sra. Toner es directora del Centro de Seguridad y Tecnología Emergente de la Universidad de Georgetown y, en octubre, escribió un estudio de caso que cubría cómo los gobiernos y las empresas podrían estructurar su comunicación para evitar interpretaciones erróneas por parte de otros. El artículo, en coautoría con otros asociados con Georgetown, definió herramientas de comunicación llamadas «señales» que la seguridad nacional y la inteligencia artificial están utilizando. los actores espaciales podrían confiar para aclarar sus intenciones.

Las cuatro señales en el documento son atar las manos, costos irrecuperables, costos a plazos y costos reducibles. Estos enfoques varían desde atar las manos, que limita a una empresa mediante políticas u otros anuncios de los que sería difícil retractarse, hasta costos de pago a plazos con costos iniciales más altos (como costosos compromisos de cumplimiento) que se reducen con el tiempo a medida que se acumulan los beneficios.

En este frente, el artículo de la Sra. Toner se centró específicamente en las acciones de OpenAI en torno al lanzamiento del modelo GPT-4. OpenAI anunció GPT-4 en marzo de 2023 y, según los autores del artículo, si bien el modelo en sí fue un logro tecnológico notable, su relevancia para la señalización surgió a través de sus documentos complementarios.

Algunos ejemplos de señalización en el concurso del uso de la IA destacados en un artículo de un miembro de la junta directiva de OpenAI
Señales de IA costosas como se define en el documento. Imagen: Ejemplos de costosas señales de IA/intenciones de decodificación Inteligencia artificial y señales costosas – Andrew Imbrie Owen Daniels Helen Toner (Centro de Seguridad y Tecnología Emergente de la Universidad de Georgetown)

Estos documentos incluían una tarjeta del sistema que explicaba los riesgos de GPT-4 y cómo OpenAI los había mitigado mientras se apresuraba a lanzar el primer modelo GPT-4 al mercado. Los autores compartieron que creían que era relativamente infructuoso como herramienta de comunicación para el compromiso de OpenAI con la seguridad.

El documento explica:

Si bien la tarjeta del sistema en sí ha sido bien recibida entre los investigadores interesados ​​en comprender el perfil de riesgo de GPT-4, parece haber tenido menos éxito como señal más amplia del compromiso de OpenAI con la seguridad. La razón de este resultado no deseado es que la compañía tomó otras acciones que eclipsaron la importación de la tarjeta del sistema: en particular, el exitoso lanzamiento de ChatGPT cuatro meses antes.

Luego, los investigadores compararon el enfoque de OpenAI con el utilizado por su competidor, Anthropic, y su plataforma Claude. Elogiaron la decisión de Anthropic de retrasar el lanzamiento de Claude para detener «el avance del ritmo de progreso de las capacidades de IA» y definieron esta decisión como una «costosa señal de moderación».

Como lo expresan:

Al retrasar el lanzamiento de Claude hasta que otra empresa lanzara un producto con capacidades similares, Anthropic estaba mostrando su voluntad de evitar exactamente el tipo de recortes frenéticos que el lanzamiento de ChatGPT parecía estimular. Anthropic logró este objetivo aprovechando los costos a plazos o costos fijos que no se pueden compensar con el tiempo. En el marco de este estudio, Anthropic mejoró la credibilidad de sus compromisos con la seguridad de la IA al retrasar el lanzamiento anticipado de su modelo y absorber posibles pérdidas de ingresos futuras. La motivación en este caso no fue recuperar esas pérdidas ganando una participación de mercado más amplia, sino más bien promover normas de la industria y contribuir a expectativas compartidas en torno al desarrollo y despliegue responsable de la IA.

El informe del NYT comparte que Altman no estaba satisfecho con Holt después de la publicación del artículo y compartió sus preocupaciones con los empleados de OpenAI a través de un correo electrónico. Además, poco después se produjo un desarrollo bastante interesante, con el jefe de investigación de OpenAI, Ilya Sutsekver, debatiendo inicialmente si expulsar a Toner de la junta directiva. Sin embargo, sorprendentemente, decidió actuar contra Altman, una decisión de la que se arrepentiría en unos días.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *