emoción alrededor La llegada del CEO de OpenAI, Sam Altman, a Londres fue evidente en la fila que recorrió el campus de la UCL antes de su discurso el miércoles por la tarde. Cientos de estudiantes y fanáticos emocionados del software de chat ChatGPT de OpenAI han venido aquí para ver la etapa del Reino Unido de la gira mundial de Altman, donde espera viajar a alrededor de 17 ciudades. Esta semana ya ha visitado París y Varsovia. La semana pasada estuvo en Lagos. Después de eso, se fue a Munich.
Pero la cola ha sido grabada por un pequeño grupo de personas que han viajado para expresar su preocupación de que la IA avanza demasiado rápido. “Sam Altman está dispuesto a apostar por la humanidad con la esperanza de algún tipo de utopía transhumanista”, gritó un manifestante en un megáfono. Ben, otro manifestante, que se negó a dar su apellido en caso de que afectara sus perspectivas laborales, también estaba preocupado. “Estamos particularmente preocupados por el desarrollo de futuros modelos de inteligencia artificial que pueden representar una amenaza existencial para la raza humana”.
Hablando ante un auditorio repleto de casi 1,000 personas, Altman sonaba indiferente. Llevaba un traje azul intenso con medias verdes estampadas, hablaba con respuestas cortantes, siempre llegando al punto. Y su tono fue optimista, destacando cómo cree que la inteligencia artificial puede revitalizar la economía. “Estoy emocionado de que esta tecnología pueda revertir las ganancias de productividad perdidas en las últimas décadas”, dijo. Pero aunque no mencionó las protestas en el extranjero, sí reconoció su preocupación sobre cómo la IA podría usarse para difundir desinformación.
“Los humanos son realmente buenos para brindar información errónea, y tal vez los modelos GPT lo hagan más fácil. Pero eso no es lo que me asusta”, dijo. “Creo que una cosa será diferente. [with AI] es la capacidad interactiva, personal y persuasiva de estos sistemas”.
Aunque OpenAI planea crear formas de hacer que ChatGPT se niegue a difundir desinformación y planea construir sistemas de monitoreo, dijo, será difícil mitigar estos efectos cuando la compañía lance al público modelos de código abierto, como anunció varias semanas antes. pretendía hacer. “Las tecnologías OpenAI para lo que podemos hacer en nuestros sistemas no funcionarán de la misma manera”.
A pesar de esta advertencia, Altman dijo que es importante no sobrerregular la IA mientras la tecnología aún está en pañales. El Parlamento Europeo está debatiendo actualmente una legislación llamada Ley de Inteligencia Artificial, que son nuevas reglas que darán forma a la forma en que las empresas pueden desarrollar dichos modelos y pueden establecer una oficina de IA para supervisar el cumplimiento. Sin embargo, el Reino Unido decidió distribuir la responsabilidad de la IA entre varios reguladores, incluidos los que cubren los derechos humanos, la salud y la seguridad y la competencia, en lugar de crear un organismo de control dedicado.
“Creo que es importante lograr un equilibrio aquí”, dijo Altman, refiriéndose a las discusiones que ahora tienen lugar entre los legisladores de todo el mundo sobre cómo construir reglas para la IA que protejan a las sociedades de daños potenciales sin sofocar la innovación. “La respuesta correcta es probablemente algo entre el enfoque tradicional europeo-británico y el enfoque tradicional estadounidense”, dijo Altman. “Espero que todos podamos trabajar juntos esta vez”.