17:39
18:32

Arvit: 19:15

Shajarit: 9:00

Minja: 18:15

¿Las corporaciones van a prohibir el uso de ChatGPT?

Por Zachy Hennesey*

A medida que más trabajadores de todo el mundo adoptan el chatbot de IA generativa para tareas domésticas, algunas corporaciones han comenzado a retroceder por temor a los datos y las preocupaciones de seguridad de IP.

A medida que ChatGPT, el innovador chatbot impulsado por IA desarrollado por OpenAI, gana popularidad entre los trabajadores en los Estados Unidos por realizar tareas rutinarias, una nube de incertidumbre se cierne sobre su futuro. Las empresas han comenzado a cuestionar hasta qué punto se debe adoptar ChatGPT mientras se protege contra posibles violaciones de seguridad de datos y fugas de propiedad intelectual. Esta intrigante yuxtaposición entre la creciente adopción y la imposición de limitaciones por parte de gigantes de la industria como Microsoft y Google ha puesto de relieve la trayectoria potencial de ChatGPT en entornos corporativos.

Con las empresas globales en una encrucijada, el delicado equilibrio entre aprovechar las impresionantes capacidades de ChatGPT y mitigar los riesgos potenciales es una preocupación central. La IA generativa de ChatGPT ofrece un chatbot versátil capaz de entablar conversaciones y proporcionar respuestas a diversas consultas. Sin embargo, junto a su atractivo, se cierne una sombra de incertidumbre, impulsada por aprensiones sobre la exposición de datos y vulnerabilidades de conocimiento patentado.

Los meses transcurridos desde su debut en noviembre han hecho bien en mostrar la utilidad de ChatGPT en tareas cotidianas como redactar correos electrónicos, resumir documentos y realizar investigaciones preliminares, y el mundo corporativo ciertamente ha comenzado a aprovechar su utilidad. Una encuesta reciente de Reuters / Ipsos realizada en línea entre el 11 y el 17 de julio, reveló que el 28% de los más de 2.600 encuestados estadounidenses ya han integrado ChatGPT en sus rutinas profesionales.

La encuesta también señaló, sin embargo, una cantidad significativa de rechazo corporativo: el 10% de los encuestados indicó prohibiciones estrictas sobre el uso de herramientas de IA externas impuestas por sus empleadores, mientras que aproximadamente el 25% seguía sin estar seguro sobre la postura de su empresa. Además, solo el 22% informó permiso explícito de sus empleadores para usar herramientas de IA.

Sin embargo, el aumento en la adopción ha avivado las preocupaciones sobre la privacidad de los datos y las posibles violaciones de la propiedad intelectual. Un desafío notable es la accesibilidad de las conversaciones generadas por ChatGPT a los revisores humanos de terceros, lo que plantea preocupaciones válidas sobre la replicación de datos y la difusión del conocimiento. El rápido ascenso de ChatGPT desde su lanzamiento en noviembre también ha atraído el escrutinio regulatorio, particularmente en Europa, donde las prácticas de recopilación de datos han estado bajo el microscopio de los organismos de control de la privacidad.

El panorama ambiguo se extiende a las políticas corporativas que rigen el uso de ChatGPT. A medida que las empresas lidian con este terreno en evolución, se enfrentan al desafío de equilibrar la eficiencia impulsada por la IA con la protección de los activos intelectuales. En

particular, Samsung Electronics impuso recientemente una prohibición global de ChatGPT y herramientas similares de inteligencia artificial debido a las preocupaciones sobre la exposición de datos confidenciales, mostrando un enfoque cauteloso que algunas corporaciones están adoptando.

 

En el otro extremo del espectro, algunas compañías están adoptando cautelosamente ChatGPT, evaluando cuidadosamente sus beneficios contra posibles dificultades. Por ejemplo, Coca-Cola está probando activamente el potencial de la IA para mejorar la eficiencia operativa al tiempo que protege los datos confidenciales dentro de los firewalls establecidos. Del mismo modo, Tate & Lyle, un fabricante global de ingredientes, está experimentando con ChatGPT en entornos controlados para determinar su potencial para aumentar la productividad.

Sin embargo, a medida que las empresas navegan por este panorama, la pregunta subyacente sigue siendo: ¿Cómo se regulará ChatGPT en el futuro? Roy Keidar, socio legal de Arnon, bufete de abogados Tadmor-Levy y experto en tecnologías emergentes, arrojó luz sobre las consideraciones legales en evolución que rodean a ChatGPT y herramientas similares de inteligencia artificial.

¿Cómo se regulará la IA como ChatGPT en el futuro?

"Me sorprendería ver una prohibición completa de las herramientas generativas de IA", dijo Keidar, citando casos en los que ciertas regiones, como Italia, han prohibido brevemente ChatGPT debido a violaciones específicas de privacidad, pero enfatizando que estas instancias son distintas e impulsadas por claras violaciones de las leyes existentes.

Sin embargo, Keidar destacó los desafíos legales multifacéticos asociados con la IA generativa. "ChatGPT plantea numerosos problemas legales, no solo la privacidad y la seguridad de los datos, sino también cuestiones relacionadas con la responsabilidad y la protección de la propiedad intelectual, y las alucinaciones, [la desinformación generada como] un subproducto del uso de herramientas como ChatGPT", dijo.

Si bien el enfoque actual de las regulaciones y pautas que rodean a ChatGPT se encuentra en las relaciones comerciales entre empresas y usuarios, Keidar anticipa una expansión hacia reglas y procedimientos más específicos del sector, adaptados a los requisitos únicos de diferentes industrias.

En medio del panorama legal en evolución, la creciente integración de ChatGPT y las herramientas de IA en el tejido de los entornos corporativos sigue siendo cierta. Keidar imagina un futuro en el que ChatGPT se vuelve tan accesible como Microsoft Office u otras herramientas de productividad comunes, utilizadas en varios departamentos para diversos propósitos. Esta integración, sin embargo, viene con la responsabilidad de establecer procedimientos y pautas seguras para proteger contra posibles dificultades.

"El hecho de que vaya a usarlo más solo expone aún más la vulnerabilidad de sus datos personales, o su IP o la de la empresa u otros servicios o productos que realmente vende a sus clientes", dijo. "Necesitamos entender quién será responsable de esa [vulnerabilidad], quién será responsable, y cómo protegemos los secretos y la libertad de nuestros clientes y los problemas de propiedad intelectual".

"La IA generativa es un gran desarrollo", concluyó Keidar. "Es probablemente una de las mayores innovaciones de la historia, ciertamente durante la última década más o menos, tal vez incluso más. Pero, por supuesto, tiene un costo, y el costo será establecer procedimientos, reglas y pautas seguras sobre cómo usarlo de manera responsable".

Bibliografía: Publicado en Jpost. 26 agosto 2023.

Kehila Ashkenazi, A.C. Todos los derechos reservados.
Powered by Wolfate
linkedin facebook pinterest youtube rss twitter instagram facebook-blank rss-blank linkedin-blank pinterest youtube twitter instagram