21 diciembre 2024
spot_img
21 diciembre 2024

OpenAI elimina una voz de Sky del ChatGPT

La voz de la nueva herramienta se parecía demasiado a la de la actriz Scarlett Johansson

La empresa OpenAI ha deshabilitado la voz de Sky en su nuevo modelo GPT-4o después de que la actriz Scarlett Johansson expresara su indignación por la fuerte similitud con voz en la película Her (2013). ¿Cuál ha sido la polémica en torno a esta nueva voz para ChatGPT? ¿Cómo ha reaccionado OpenAI? Explicamos por qué se ha eliminado Sky y qué consecuencias puede llegar a tener la personificación de la inteligencia artificial. 

GPT-4o y la respuesta de Scarlett Johansson

ChatGPT es uno de los ejemplos más conocidos de inteligencia artificial generativa. Es un modelo diseñado por la empresa norteamericana OpenAI para responder a preguntas, participar en conversaciones y generar texto a través de un chat. La última versión de la IA, GPT-4o, presentada por la compañía el 13 de mayo, ha dotado al sistema de voz, de manera que es capaz de mantener un diálogo a tiempo real con el usuario. 

OpenAI ha suspendido la voz de Sky, que aparecía en las demos que compartieron. Lo hicieron después de que algunos usuarios encontraran bastantes similitudes entre Sky y la voz de la actriz Scarlett Johansson en Her. Esta película sigue la historia de la relación de un escritor con un chatbot, Samantha, al que le pone voz Scarlett Johansson.

El 13 de mayo, Sam Altman, director ejecutivo de la empresa OpenAI, compartió una publicación en X (antes Twitter) con solo la palabra her, una referencia clara a la película. Aunque la empresa ha dicho que la voz no imita la de la actriz, las semejanzas han causado controversia. La actriz publicó unas declaraciones sobre la cuestión y explicaba que en septiembre rechazó una oferta de Altman por dar voz al nuevo modelo GPT-4o. Según el comunicado de Johansson, dos días antes del lanzamiento del chatbot, Altman volvió a contactar con el agente de Johansson para pedirle que considerara de nuevo la propuesta, pero antes de recibir respuesta esta versión de ChatGPT ya era pública. Después de oír la voz de Sky, explica, se sintió “sorprendida” y “enfadada” y comunica que ha contratado apoyo legal para conducir la situación. 

Johansson concluye así su declaración: “En un momento en el que todos estamos luchando contra deepfakes y la protección de nuestra propia imagen, nuestro propio trabajo y nuestras identidades, creo que estas cuestiones merecen claridad absoluta. Espero con interés la resolución en forma de transparencia y la aprobación de la legislación adecuada para ayudar a asegurar que los derechos individuales estén protegidos».

El riesgo de personificar la IA

Más allá de las disputas legales, este evento pone de nuevo sobre la mesa un importante debate en las conversaciones sobre los riesgos de la inteligencia artificial: la personificación. La IA no es un ser humano, pero los chatbots como ChatGPT se expresan de forma similar a las personas. Esto puede provocar cierta humanización de la IA, lo que implica el riesgo de crear vínculos emocionales con la máquina hasta el punto de olvidar que no hay ninguna persona real hablando al otro lado.

El problema es aún más grave cuando las personas acuden a la inteligencia artificial para encontrar consejos vitales o sobre salud física y mental y dan capacidad a la IA para decidir por ellas. La película Her habla precisamente del peligro de desarrollar un vínculo emocional con una inteligencia artificial a expensas de las relaciones con el mundo real.  

La interacción con una IA no sustituye ni a la interacción humana ni a la atención de un profesional de la salud. Hablamos de esto en la cápsula didáctica sobre inteligencia artificial de Desfake.

El Fake de la Semana es un proyecto conjunto de Junior Report y Verificat 

Si tu centro educativo está interesado en trabajar la desinformación en el aula, rellena este formulario y nos pondremos en contacto contigo.

Últimas noticias

- Contenido patrocinado -