¿Inteligencia artificial inteligente LaMDA de Google? Más como ‘clickbait puro’, dice un experto en IA

¿Inteligencia artificial inteligente LaMDA de Google? Más como ‘clickbait puro’, dice un experto en IA

En junio de este año, Internet estaba repleto de discusiones sobre la inteligencia artificial y la llegada inminente de SkyNet en un futuro no muy lejano. Esto se produjo después de que el ingeniero de Google, Blake Lemoine, declarara que el modelo de lenguaje para aplicaciones conversacionales (LaMDA) de la empresa se había vuelto consciente de sí mismo y había logrado sensibilidad. Sin embargo, Google no tenía nada de eso, y después de eso, a Lemoine primero se le dio una licencia paga y luego finalmente se la despidió.

Para las personas que buscan una perspectiva externa de la situación que no involucre a Google o a su exempleada Lemoine, intervino el codirector de inteligencia artificial centrada en el ser humano (HAI, por sus siglas en inglés) de la Universidad de Stanford, John Etchemendy. Y al igual que Google, Etchemendi no está impresionado por las afirmaciones de Lemoine, y llamó a las historias de IA inteligente de Google «puro clickbait».

Él dijo:

La sensibilidad es la capacidad de sentir el mundo, experimentar sentimientos y emociones, y actuar en respuesta a esas sensaciones, sentimientos y emociones.

LaMDA no es inteligente por la sencilla razón de que no tiene una fisiología para las sensaciones y los sentimientos. Es un programa diseñado para generar oraciones en respuesta a indicaciones de oraciones.

Cuando vi el artículo en el Washington Post, me decepcionó el Washington Post incluso por el hecho de que se publicó.

Lo publicaron porque actualmente podrían escribir este titular sobre el «Ingeniero de Google» que hizo esta afirmación absurda, y porque la mayoría de sus lectores no son lo suficientemente sofisticados para entender de qué se trata. Puro clickbait.

Richard Fikes, profesor emérito de informática en Stanford, está de acuerdo en que LaMDA simplemente intentaba responder como un ser humano, no convertirse en uno. Él dijo:

Puedes pensar en LaMDa como un actor; tomará la forma de lo que le pidas. [Lemoine] se vio atraída por el papel de LaMda, interpretando a un ser sensible.

En consecuencia, muchos, incluido Fikes, creen que Blake Lemoine sucumbió al efecto ELISA, que es simplemente la tendencia a asumir inconscientemente que las computadoras se comportan como humanos.

Fuente: Stanford Daily.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *