La inteligencia artificial plantea importantes riesgos sociales, según una declaración firmada por líderes de la industria.


Los líderes de la industria de la IA están preocupados por las amenazas potenciales que los sistemas avanzados de IA representan para la humanidad. El martes, varios líderes de la industria, como el CEO de OpenAI, Sam Altman, y el CEO de DeepMind, Demis Hassabis, junto con otros científicos y dignatarios, firmaron una declaración en la que advierten sobre los peligros de la IA.

La breve declaración de una oración se publicó en el sitio web del Centro sin fines de lucro para la Seguridad de la Inteligencia Artificial. “Mitigar el riesgo de extinción de la IA debería ser una prioridad mundial junto con otros riesgos sociales como las pandemias y la guerra nuclear”, se lee en el comunicado.

Casi todas las principales empresas de tecnología han lanzado un chatbot de IA u otras herramientas de IA en los últimos meses, luego del lanzamiento de ChatGPT y Dall-E de OpenAI el año pasado. La tecnología está comenzando a filtrarse en la vida cotidiana y podría cambiar todo, desde la forma en que busca información en la web hasta la forma en que crea una rutina de ejercicios. El rápido lanzamiento de herramientas de IA también ha llevado a científicos y expertos de la industria a expresar su preocupación por los riesgos de la tecnología si el desarrollo continúa sin regulación.

Esta declaración es la última de una serie de advertencias recientes sobre amenazas potenciales a la tecnología avanzada. La semana pasada, Microsoft, una empresa líder en inteligencia artificial e inversora en OpenAI, Se emitió un informe de 40 páginas. Él dice que la regulación de la IA es esencial para adelantarse a los posibles malos actores y riesgos. En marzo, Elon Musk, director ejecutivo de Tesla y Twitter, el cofundador de Apple, Steve Wozniak, y otras mil personas de la industria tecnológica firmaron una carta abierta en la que exigían a las empresas que detuvieran la producción de proyectos avanzados de inteligencia artificial durante al menos seis meses, o hasta que se cumplan los estándares de la industria. Se cumplen y protocolos. .

La carta, publicada el 22 de marzo, dice: “¿Deberíamos arriesgarnos a perder el control de nuestra civilización? Tales decisiones no deben delegarse en líderes técnicos no elegidos”. “Los sistemas de IA fuertes solo deben desarrollarse una vez que estemos seguros de que sus efectos serán positivos. Y sus riesgos estarán bajo control”.

Algunos críticos han señalado que la atención que los líderes tecnológicos dan a los riesgos futuros de la tecnología no aborda los problemas actuales, como La tendencia de la inteligencia artificial a “alucinar”.“, formas borrosas en las que un chatbot de IA llega a una respuesta rápida y preocupaciones sobre la privacidad de los datos y el plagio. También existe la posibilidad de que algunos de estos líderes tecnológicos soliciten que se descontinúen los productos de sus competidores para que puedan tener tiempo para construir su propio producto de IA.

Nota de los editores: CNET usa un motor de inteligencia artificial para crear algunas explicaciones sobre finanzas personales que nuestros editores editan y verifican. Para más ver Esta publicación.