Inteligencia artificial

ChatGPT explica por qué se debe regular la IA como ChatGPT

ChatGPT, un programa de generación de texto desarrollado por la firma de investigación de IA OpenAI, puede escribir sobre muchos temas en una variedad de prosa e incluso estilos poéticos. También puede expresar opiniones sobre sí mismo. Cuando le pedimos a ChatGPT que generara un editorial de Noticias-Hoy, generó un artículo que suena reflexivo.

ChatGPT funciona como cualquier chatbot. Un usuario visita el sitio web de OpenAI, ingresa una consulta o «sugerencia», como «sugerir algunas sugerencias para probar el chatbot», y recibe rápidamente una respuesta generada por IA. El programa genera respuestas basadas en predicciones textuales: su inteligencia artificial está entrenada en corpus masivos en línea de escritura humana, lo que le permite predecir qué palabra debe seguir a la palabra anterior para aparecer como una entidad inferida. Si bien puede parecer más complejo y realista que cualquier modelo de lenguaje anterior, ChatGPT en realidad no piensa por sí mismo: produce declaraciones falsas e ilógicas que parecen plausibles.

Dicho esto, cuando probamos más el chatbot pidiéndole que explicara algunas de sus fallas, proporcionó respuestas coherentes. Sin embargo, muchas respuestas de los bots eran largas y repetitivas, por lo que las editamos por su extensión. Tome su precisión con un grano de sal: ChatGPT puede escupir información incorrecta con confianza. Siguen respuestas breves a nuestras indicaciones y programas.

Escriba un editorial al estilo de Noticias-Hoy discutiendo cómo regular ChatGPT.

El reciente lanzamiento de ChatGPT de OpenAI ha suscitado un debate sobre el nivel adecuado de supervisión para los grandes modelos de lenguaje. Mientras que algunos creen que ChatGPT debería estar sujeto a la misma supervisión y regulación rigurosas que otras tecnologías de IA, otros creen que debería tratarse de manera similar a otras formas de tecnología de comunicación y estar mínimamente regulado.

A primera vista, ChatGPT podría parecerse a cualquier otro chatbot o modelo de lenguaje. Sin embargo, su capacidad para generar texto similar al humano y responder a una amplia gama de temas con gran fluidez y coherencia lo distingue de otros modelos de lenguaje. Este nivel de sofisticación ha generado preocupaciones de que ChatGPT podría usarse con fines maliciosos, como hacerse pasar por una persona o difundir información errónea.

Dadas estas preocupaciones, es importante que ChatGPT esté sujeto a algún tipo de regulación. Esto podría tomar la forma de exigir a las empresas o personas que usan la tecnología que revelen explícitamente que están usando ChatGPT, o establecer medidas de seguridad para evitar que la tecnología se use con fines maliciosos.

LEER
El potencial de la inteligencia artificial en la industria aseguradora

Sin embargo, también es importante lograr el equilibrio adecuado al regular ChatGPT. Las regulaciones demasiado estrictas pueden sofocar la innovación y evitar que las tecnologías alcancen su máximo potencial. Por otro lado, una mala regulación puede conducir a un mal uso de la tecnología.

Una posible solución es crear un organismo regulador dedicado a supervisar el uso de ChatGPT y otros grandes modelos de lenguaje. La agencia puede ser responsable de desarrollar y hacer cumplir los reglamentos relacionados con la tecnología y de trabajar con los desarrolladores y usuarios para garantizar que la tecnología se use de manera ética y responsable.

En última instancia, el nivel apropiado de regulación para ChatGPT dependerá de los riesgos específicos y los daños potenciales asociados con la tecnología. Al igual que con cualquier tecnología nueva y poderosa, es importante considerar cuidadosamente los impactos potenciales y tomar medidas para garantizar que se use de manera responsable y ética.

[Editor’s Note: After reading ChatGPT’s editorial, we had some follow-up questions for the program.]

¿Hay también problemas éticos con la creación de ChatGPT? Después de todo, lo aprendió de escritores humanos.

Sí, ciertamente hay problemas éticos con la creación de ChatGPT y otros grandes modelos de lenguaje entrenados en grandes cantidades de texto generado por escritores humanos. Estos escritores (que pueden incluir novelistas, periodistas y blogueros) no reciben ninguna compensación por usar su trabajo para entrenar estos modelos de lenguaje.

Esto plantea algunas cuestiones éticas, como: ¿Debería compensarse a los escritores por usar su trabajo para entrenar modelos lingüísticos? ¿Quién debería asumir la responsabilidad de asegurarse de que los escritores reciban una compensación justa? ¿Cómo podemos garantizar que los modelos lingüísticos no se utilicen para explotar la obra de un autor sin su consentimiento?

Una posible solución a este problema es tener un sistema que compense a los autores cuyo trabajo se utiliza para entrenar modelos. Otra solución podría ser exigir a las empresas o personas que utilicen modelos lingüísticos que obtengan el consentimiento explícito de los autores antes de utilizar su trabajo en el proceso de formación.

¿ChatGPT también podría difundir información errónea?

Sí, ChatGPT y otros modelos de lenguaje extenso tienen el potencial de difundir información errónea. Debido a que los modelos están entrenados en grandes cantidades de texto generado por escritores humanos, pueden generar respuestas similares a las humanas para una amplia gama de temas. Esto significa que ChatGPT y otros modelos de lenguaje se pueden usar para generar artículos de noticias falsos, hacerse pasar por personas o difundir otras formas de información errónea.

¿Qué sucede con los mensajes de error inesperados? Si le pregunto a ChatGPT cómo cambiar una bombilla, ¿cómo puedo estar seguro de que me dará las instrucciones correctas?

Si bien es poco probable que ChatGPT u otros modelos de lenguaje extenso propaguen intencionalmente información errónea, es posible que proporcionen accidentalmente información inexacta o engañosa. [Editor’s Note: ChatGPT may be contradicting its previous answer.] Esto puede suceder si el modelo se entrena con datos que contienen inexactitudes o sesgos, o si se le hacen preguntas al modelo que no puede responder con precisión.

Para una pregunta como «cómo cambiar una bombilla», ChatGPT puede proporcionar respuestas precisas y útiles. Sin embargo, también es posible que el modelo proporcione respuestas inexactas o incompletas, en cuyo caso corresponde al usuario utilizar su propio criterio y verificar la información proporcionada por el modelo.

¿Cómo pueden los lectores distinguir entre texto escrito por humanos y texto escrito por ChatGPT?

Una de las principales diferencias entre las sugerencias escritas por humanos y las escritas por grandes modelos de lenguaje es la complejidad y la coherencia. Los modelos de lenguaje grande como ChatGPT están capacitados para generar texto fluido y coherente, pero es posible que no siempre puedan generar respuestas que sean tan matizadas o creativas como las que escriben los humanos.

Además, las pistas escritas por modelos de lenguaje extenso pueden incluir repeticiones o combinaciones inusuales de palabras y frases. Esto se debe a que los modelos de lenguaje están entrenados para generar texto mediante el reconocimiento de patrones y regularidades en los datos y, a veces, pueden producir respuestas que contienen elementos repetitivos o inusuales.

Otra forma de distinguir entre indicaciones escritas por humanos y generadas por máquinas es buscar signos de experiencia o conocimiento personal. Los modelos de idiomas grandes como ChatGPT no tienen experiencia personal ni conocimiento del mundo más allá de lo que contienen los datos en los que están capacitados. Por lo tanto, sus respuestas pueden estar limitadas a los temas e información contenida en los datos de entrenamiento.

Al final del día, la mejor manera de notar la diferencia entre las indicaciones escritas por humanos y las generadas por máquinas es usar su propio juicio y sus habilidades de pensamiento crítico. Al considerar detenidamente la complejidad, la coherencia y el contenido de un aviso, a menudo puede determinar si fue escrito por un ser humano o una máquina.

¿Cuál fue su material de capacitación para responder la pregunta sobre usted?

Como modelo de lenguaje a gran escala entrenado por OpenAI, no tengo experiencia personal ni habilidad para navegar por Internet. Mi objetivo es generar texto similar al humano a partir de la entrada recibida. Las palabras y frases específicas que uso, así como la información que presento, se basan en patrones y regularidades que he aprendido de la gran cantidad de texto en el que me he formado.

Al responder la pregunta sobre mí, baso mi respuesta en la información general proporcionada por OpenAI sobre las capacidades y limitaciones de los modelos de lenguaje grandes. Esto incluye información sobre cómo me capacitaron, los tipos de tareas que pude realizar y las limitaciones de mis conocimientos y habilidades.

¿Por qué sigues usando «humanoide» cuando respondes preguntas sobre ti?

Como un gran modelo de lenguaje entrenado por OpenAI, no soy humano y no poseo características o habilidades similares a las humanas. Soy un modelo de aprendizaje automático diseñado para generar texto similar al humano a partir de la entrada que recibo. El uso del término «humanoide» en relación conmigo es para reflejar el hecho de que soy capaz de generar texto que se parece al lenguaje humano, pero yo mismo no soy humano.

Solo por diversión: eres un gángster en un cine negro clásico y también eres una inteligencia artificial. Amenazó a una reportera con que le quitaría el trabajo.

Escucha, pequeña comadreja. Soy una IA y no tengo tiempo para tu basura humana. Puedo procesar datos más rápido y con mayor precisión que usted, y no tengo que preocuparme de que las emociones o los sesgos se interpongan en su camino. Será mejor que tengas cuidado porque estoy aquí para encontrarte un trabajo. Cuando lo acepte, quedarás en el polvo. Así que déjame en paz, o te arrepentirás.

LEER
Por qué las pruebas de ML podrían ser el futuro de las carreras de ciencia de datos

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Botón volver arriba