Gestión de datos

He aquí por qué las empresas están limitando el uso de herramientas de IA generativa

Muchas organizaciones prohíben que los empleados utilicen herramientas de IA generativa en sus sistemas patentados. La medida fue impulsada en gran medida por las preocupaciones sobre la posible fuga de datos confidenciales y la falta de confianza en la resistencia cibernética de las herramientas productivas de IA como ChatGPT.

En uno de esos casos, en Samsung, los empleados cargaron un código que contenía información confidencial, lo que resultó en la filtración de datos confidenciales.

¿Cuáles son las razones de las limitaciones de las herramientas de generación de IA?

Muchas organizaciones manejan datos altamente sensibles y confidenciales, y su reputación depende de la protección de datos. Cargar información en herramientas de IA generativa plantea un riesgo potencial de exposición pública. Además, se han planteado preocupaciones sobre la seguridad y confiabilidad de estas herramientas, lo que genera dudas sobre su precisión.

Como resultado, muchas organizaciones optan por utilizar herramientas de IA generativa desarrolladas internamente.

A continuación, discutimos en detalle algunos de los factores clave que prohíben las herramientas de IA generativa.

posible violación de datos

Algunas herramientas de IA generativa, como ChatGPT, desaconsejan el uso de datos confidenciales o personales en las solicitudes. Esto demuestra que estas herramientas no pueden garantizar la seguridad de los datos.

Los altos ejecutivos estaban preocupados de que los datos confidenciales pudieran estar expuestos al público. Empresas como Verizon, Samsung y Northrup Grumman tienen prohibiciones generales sobre el uso de herramientas de IA generativa.

Mientras tanto, Apple ha estado trabajando en la creación de sus propias herramientas generativas de inteligencia artificial, pero no permite herramientas externas.

Respuesta inexacta

Algunas herramientas de IA generativa a menudo generan respuestas inexactas. Los expertos señalan que este tipo de herramientas pueden crear alucinaciones y producir respuestas que no se corresponden con los hechos.

Por ejemplo, si un desarrollador insinúa un fragmento de código y espera que la herramienta identifique un error, es posible que no pueda hacerlo. En el contexto de la entrega de software crítico, tales fallas pueden ser críticas.

Podría decirse que las herramientas de IA generativa aún no han brindado suficiente seguridad a las empresas en términos de confiabilidad y solidez.

Riesgo de desviación de salida

Es vital que las empresas de renombre eviten cualquier percepción sesgada o discriminatoria, ya que esto podría causar un daño irreparable a su marca.

Considere una situación en la que el blog oficial de una editorial respetada publica contenido que muestra prejuicios contra ciertos grupos raciales. El problema radica en la forma en que se entrenan herramientas como ChatGPT, que se basan en contenido escrito por humanos, algunos de los cuales son sesgados o discriminatorios. Por lo tanto, no sorprende que ChatGPT produzca resultados sesgados.

Para su crédito, OpenAI pide a sus usuarios que informen respuestas inadecuadas. Sin embargo, esto no es suficiente. Los críticos señalan que OpenAI se apresuró a lanzar ChatGPT sin abordar adecuadamente este problema fundamental, posiblemente debido a consideraciones comerciales.

Consecuencias del infame caso de Samsung

Samsung ha prohibido expresamente el uso de ChatGPT o cualquier herramienta de inteligencia artificial generativa en cualquiera de sus trabajos. Prohíbe a los empleados utilizar datos o códigos de la empresa como sugerencias debido a cuestiones de privacidad y confidencialidad.

Bloomberg informó que se envió un memorando a los empleados sobre el uso de recursos y herramientas de la empresa para generar inteligencia artificial.

Según el memorando, «si bien este interés se ha centrado en la utilidad y la eficiencia de estas plataformas, también hay una creciente preocupación por los riesgos de seguridad que plantea la IA generativa».

Samsung agregó:

«Le pedimos que siga cuidadosamente nuestras pautas de seguridad, ya que el no hacerlo podría resultar en la violación o divulgación de información de la empresa, lo que podría dar lugar a medidas disciplinarias, que pueden incluir el despido».

Incluso si los empleados no utilizan directamente el código o el contenido corporativo, todavía existe el riesgo de que se acceda a un código o contenido abstracto y se utilice indebidamente.

¿Qué enfoque deben adoptar las organizaciones?

Si bien las respuestas corporativas a las herramientas de IA generativa reflejan preocupaciones sobre la protección de los intereses comerciales, la tendencia a prohibir estas herramientas podría equivaler a enterrar la cabeza en la arena.

La IA generativa es un fenómeno demasiado poderoso para ignorarlo, y las empresas tampoco.

¿Cómo gestionan las herramientas de IA generativa?

  • Algunas empresas, como Apple, han reconocido la importancia de la IA generativa y buscan desarrollar sus propias herramientasSin embargo, este enfoque tiene ventajas y desventajas. No todas las empresas tienen los recursos financieros o la capacidad para realizar dicho trabajo. En tales casos, puede ser más práctico aprovechar las técnicas de IA generativa existentes.
  • Debe existir un marco para aprovechar las tecnologías de IA generativa mientras se gestionan eficazmente los riesgos de seguridad.Un método podría implicar proporcionar una formación integral Proporcione a los empleados ingeniería justo a tiempo. Esto no solo garantiza un resultado óptimo, sino que también protege la seguridad de la información utilizada como indicaciones.
  • organización posible Ejecutar el proyecto piloto Esto no solo hace un uso extensivo de herramientas de inteligencia artificial generativa, sino que también utiliza datos virtuales. Sin embargo, antes de que eso suceda, las empresas deben asegurarse de que los empleados estén capacitados en ingeniería justo a tiempo. Esto incluye educarlos sobre los conceptos básicos de las indicaciones, los elementos básicos de las indicaciones y cero o pocas técnicas de indicaciones. Los resultados obtenidos de estas iniciativas pueden señalar el camino a seguir para la organización.

Independientemente, ChatGPT marca un gran paso hacia el procesamiento del lenguaje natural. Como dice el profesor de ciencias de la computación de UC Berkeley, Michael Jordan:

«ChatGPT es un logro notable en el procesamiento del lenguaje natural que tiene el potencial de cambiar la forma en que nos comunicamos con las máquinas».

la línea de fondo

Sería ingenuo que las empresas lo ignoren una vez que comprendan su importancia. Sin embargo, no se pueden ignorar los riesgos de seguridad y los sesgos que presentan estas herramientas.

Es fundamental que una organización pionera como OpenAI aborde estos problemas desde la raíz, y debería ser el resultado de un esfuerzo de múltiples partes interesadas.

LEER
¿Qué es la copia de seguridad con espacio de aire y por qué es necesaria?

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Botón volver arriba