Para hacer uso de este contenido cite la fuente y haga un enlace a la nota original en Primicias.ec: https://www.primicias.ec/noticias/entretenimiento/tecnologia/microsoft-inteligencia-artificial-voces-reales-riesgos/
Investigadores de Microsoft en Asia publicaron un estudio, en el que advierten sobre los peligros de un programa de inteligencia artificial, capaz de crear voces muy realistas.
Para hacer uso de este contenido cite la fuente y haga un enlace a la nota original en Primicias.ec: https://www.primicias.ec/noticias/entretenimiento/tecnologia/microsoft-inteligencia-artificial-voces-reales-riesgos/
Los expertos siguen advirtiendo sobre los posibles peligros de la Inteligencia Artificial. Un ‘paper’ publicado por los propios investigadores de Microsoft muestra que la compañía estadounidense está desarrollando una IA con «riesgos potenciales». El modelo de inteligencia puntual que los investigadores estudiaron es VALL-E 2, que puede crear locuciones a partir de texto. A este tipo de programas se les conoce como TTS (text-to-speech, en inglés o texto a voz en español). ¿Qué hace VALL-E 2? Los investigadores, que pertenecen al equipo de investigación de Microsoft en Asia, observaron que este nuevo modelo es capaz de pronunciar de manera natural oraciones complejas, incluso aquellas que son difíciles de leer o que tienen varias frases repetidas. Resurrección Digital: Cuando la inteligencia artificial ‘revive’ a los muertos También advierten que los «potenciales riesgos» del mal uso de VALL-E 2, si es que se usara para burlar sistemas de identificación basados en voz, o para hacerse pasar por otra persona. El experimento, según detallan los investigadores, se hizo bajo la suposición de que los usuarios aceptan que su voz será la usada para que esta IA pueda locutar los textos. Pero bajo la luz de estos peligros, recomiendan que se incluya un protocolo para asegurarse que el «hablante» apruebe el uso de su voz. Afirmación preocupante: La inteligencia artificial ya engaña a los humanos, dicen expertos Además, hablan sobre la posibilidad de crear un modelo que pueda detectar si es que un audio fue sintetizado con VALL-E 2. Según afirma Microsoft en su página dedicada a esta inteligencia, la compañía «no tiene planes de incorporar VALL-E 2 en un producto o expandir su acceso al público».
Fuente Bibliográfica: https://www.primicias.ec/noticias/entretenimiento/tecnologia/microsoft-inteligencia-artificial-voces-reales-riesgos/
Para hacer uso de este contenido cite la fuente y haga un enlace a la nota original en Primicias.ec: https://www.primicias.ec/noticias/entretenimiento/tecnologia/microsoft-inteligencia-artificial-voces-reales-riesgos/