Varios proyectos de código abierto como LangChain y LLamaIndex también están explorando formas de crear aplicaciones utilizando las capacidades que ofrecen los grandes paradigmas de lenguaje. Guo dice que el lanzamiento de complementos de OpenAI amenaza con torpedear estos esfuerzos.
Los complementos también pueden presentar riesgos para los modelos complejos de IA. Los miembros del equipo del complemento rojo de ChatGPT descubrieron que podían “enviar correos electrónicos fraudulentos o no deseados, eludir las restricciones de seguridad o hacer un mal uso de la información enviada al complemento”, según Emily Bender, profesora de lingüística en la Universidad de Washington. “Permitir que los sistemas automatizados actúen en el mundo es una elección que hacemos”, agrega Bender.
Dan Hendricks, director del Centro para la Seguridad de la Inteligencia Artificial, una organización sin fines de lucro, cree que los complementos hacen que los paradigmas del lenguaje sean más riesgosos en un momento en que empresas como Google, Microsoft y OpenAI están bajo una fuerte presión para limitar la responsabilidad a través de la ley de IA. Él describe el lanzamiento de los complementos de ChatGPT como un mal precedente y sospecha que puede llevar a otros grandes creadores de modelos de lenguaje a seguir un camino similar.
Y si bien puede haber una selección limitada de complementos en la actualidad, la competencia puede empujar a OpenAI a ampliar su selección. Hendrycks ve una diferencia entre los complementos de ChatGPT y los esfuerzos anteriores de las empresas de tecnología para hacer crecer los ecosistemas de desarrolladores en torno a la IA conversacional, como el asistente de voz Alexa de Amazon.
GPT-4 puede, por ejemplo, ejecutar comandos de Linux, y una operación de equipo rojo de GPT-4 descubrió que el modelo podría explicar cómo fabricar armas biológicas, construir bombas o comprar ransomware en la dark web. Hendrycks cree que las extensiones inspiradas en los complementos de ChatGPT pueden facilitar tareas como el phishing o los correos electrónicos fraudulentos.
El paso de la creación de textos a la adopción de medidas en nombre de uno mismo está erosionando el vacío que hasta ahora había impedido que los modelos lingüísticos actuaran. “Sabemos que los modelos se pueden romper y ahora los estamos conectando a Internet para que puedan tomar medidas”, dice Hendrycks. “No es que ChatGPT, por su propia voluntad, construya bombas o algo así, pero hace que las cosas sean mucho más fáciles de hacer”.
Parte del problema con los complementos para los modelos de lenguaje es que pueden facilitar el jailbreak de dichos sistemas, dice Ali Khatib, director interino del Centro de Ética de Datos Aplicados de la Universidad de San Francisco. Dado que interactúa con la IA utilizando lenguaje natural, existen potencialmente millones de vulnerabilidades sin descubrir. Al-Khatib cree que los complementos tienen implicaciones de gran alcance, ya que empresas como Microsoft y OpenAI nublan la percepción pública con recientes afirmaciones de progreso hacia la inteligencia artificial general.
“Las cosas se están moviendo lo suficientemente rápido como para que no solo sean peligrosas, sino también dañinas para muchas personas”, dice, al tiempo que expresa su preocupación de que las empresas ansiosas por usar nuevos sistemas de inteligencia artificial puedan apresurarse a introducir complementos en contextos sensibles, como los servicios de asesoramiento.
Agregar nuevas capacidades al software de IA como ChatGPT también podría tener consecuencias no deseadas, dice Kanjun Qiu, director ejecutivo de Generalmente Inteligente, una empresa de IA que trabaja con agentes impulsados por IA. Un chatbot podría, por ejemplo, reservar un vuelo costoso o usarse para distribuir spam, y Qiu dice que tendremos que determinar quién es responsable de ese mal comportamiento.
Pero Qiu también agrega que la utilidad de los programas de inteligencia artificial conectados a Internet significa que la tecnología es imparable. “Durante los próximos meses y años, podemos esperar que gran parte de Internet se conecte a grandes modelos lingüísticos”, dice Qiu.