Microsoft se une a los llamados para una mayor regulación en la industria de la IA, incluida la propuesta de una nueva agencia gubernamental para supervisar las leyes y otorgar licencias a los sistemas de IA.
El jueves, Microsoft compartió un informe de 40 páginas que establece un plan para regular las tecnologías de IA, con sugerencias como la implementación de un “marco de seguridad de IA dirigido por el gobierno” y el desarrollo de medidas para disuadir el uso de IA para engañar o defraudar a las personas. El informe también pidió una nueva agencia gubernamental para implementar cualquier ley o regulación aprobada para regular la IA.
“Las salvaguardas necesarias para la IA requieren un sentido de responsabilidad compartido y no deben dejarse solo en manos de las empresas de tecnología”, dijo el presidente de Microsoft, Brad Smith, en el prólogo del informe, “Gestión de la IA: un plan para el futuro”.
Ver también: Herramientas de chat de Microsoft Bing AI: cómo obtenerlo en iOS y Android
Microsoft está implementando rápidamente herramientas y funciones de IA generativa para su software y otros productos con tecnología de OpenAI, el fabricante de ChatGPT. Microsoft ha invertido miles de millones en OpenAI y también llegó a un acuerdo para permitir que la potencia de la IA utilice los datos del motor de búsqueda Bing para mejorar ChatGPT.
El llamado de Microsoft para una mayor regulación se produce después de que el CEO de OpenAI, Sam Altman, expresara sentimientos similares mientras testificaba ante el Congreso el 16 de mayo. Los líderes de la compañía de inteligencia artificial siguieron una publicación de blog el lunes que decía que eventualmente se necesitaría una autoridad internacional que pudiera inspeccionar y auditar. y restringir los sistemas de IA.
Después de que OpenAI presentara ChatGPT a fines del año pasado, Microsoft ayudó a impulsar la carrera actual para lanzar nuevas herramientas de IA con el lanzamiento de una nueva búsqueda de Bing impulsada por IA en febrero. Desde entonces, hemos visto una avalancha de herramientas y funciones que generan IA de Google, Adobe, Meta y otros. Si bien estas herramientas tienen un enorme potencial para ayudar a las personas con tareas grandes y pequeñas, también han generado inquietudes sobre los peligros potenciales de la IA.
En marzo, una carta abierta del Future of Life Institute sin fines de lucro pidió una pausa en el desarrollo de sistemas de IA más avanzados que el GPT-4 de OpenAI, advirtiendo que podrían “presentar profundos riesgos para la sociedad y la humanidad”. La carta fue firmada por más de 1,000 personas, incluido el director ejecutivo de Tesla, Elon Musk, el cofundador de Apple, Steve Wozniak, y expertos en inteligencia artificial, informática y otros campos.
Microsoft reconoció estos riesgos en su informe del jueves y dijo que se necesita un marco regulatorio para anticipar problemas potenciales y solucionarlos.
“Necesitamos reconocer el simple hecho de que no todos los actores tienen buenas intenciones o están bien equipados para enfrentar los desafíos que plantean los modelos de alto poder”, se lee en el informe. “Algunos actores utilizarán la IA como un arma en lugar de una herramienta, y otros minimizarán los desafíos de seguridad que se avecinan”.
Nota de los editores: CNET usa un motor de inteligencia artificial para crear algunas explicaciones sobre finanzas personales que nuestros editores editan y verifican. Para más ver Esta publicación.