Inteligencia Artificial
IA y las Voces Engañosas: Detectando los ‘Deepfakes’ de Audio
IA y las Voces Engañosas: Detectando los ‘Deepfakes’ de Audio. Las Voces Falsas generadas por IA nos están engañando y el ser humano enfrenta dificultades para identificar los ‘deepfakes’ de audio genuinos. Un estudio con más de 500 participantes reveló la incapacidad de reconocer correctamente las voces falsas, incluso con entrenamiento previo.
Los ‘Deepfakes’ de Audio: Un Problema Desapercibido
Aunque los ‘deepfakes’ de video e imágenes han sido un problema conocido por su capacidad para difundir noticias falsas y desinformación, los ‘deepfakes’ de audio han pasado desapercibidos. Estas falsificaciones son generadas a través de modelos de aprendizaje automático que imitan el habla de personas reales o incluso generan voces únicas. La tecnología para crear estas imitaciones ha avanzado rápidamente, lo que suscita preocupación por su potencial uso delictivo.
IA y las Voces EngañosasRiesgos del Uso Delictivo
El uso delictivo de ‘deepfakes’ de audio ha demostrado ser peligroso. Estas falsificaciones se han utilizado para estafar a personas, como el caso de un ciberdelincuente que logró engañar al director de un banco en Emiratos Árabes Unidos, haciéndose pasar por un cliente durante una llamada telefónica usando un ‘deepfake’. Los estafadores han encontrado en la IA de audio una herramienta valiosa para engañar a sus víctimas.
El Estudio: Dificultades para Detectar Falsificaciones
El University College de Londres realizó un estudio con más de 500 personas para evaluar su capacidad para diferenciar entre voces falsas y audios reales en inglés y mandarín. Los resultados revelaron que los participantes solo pudieron detectar las imitaciones de voz con un 73% de precisión, a pesar de que algunos recibieron ejemplos de falsificaciones para entrenar sus habilidades de detección. Además, los investigadores advierten que la tecnología de IA generativa seguirá mejorando, lo que dificultará aún más la identificación de ‘deepfakes’ de audio en situaciones reales.
Mejorando los Detectores Automáticos
Los expertos concluyen que entrenar a las personas para detectar falsificaciones de voz no es realista y que se deben mejorar los detectores automáticos. El objetivo debe ser fortalecer las IA de detección para enfrentar la evolución de las tecnologías de generación de ‘deepfakes’. Incluso algunos expertos argumentan que esta lucha entre IA y ‘deepfakes’ es como un juego del gato y el ratón, donde la que esté más avanzada prevalecerá, por lo que se debe invertir más en investigación para mantenerse a la vanguardia.
IA y las Voces Engañosas: Ataques a Figuras Públicas
El peligro actual se centra en los ataques a figuras públicas, que cuentan con una gran cantidad de grabaciones de voz disponibles públicamente. Los ‘deepfakes’ de audio pueden ser utilizados para difamar a personas prominentes y causar daño a sus reputaciones. Por lo tanto, es esencial que las personas sean conscientes de esta problemática y tomen precauciones para protegerse.
En resumen, los ‘deepfakes’ de audio representan una amenaza real y creciente. La IA ha avanzado al punto en que resulta difícil para las personas discernir entre voces reales y falsas. Es fundamental centrar esfuerzos en mejorar los detectores automáticos y estar alerta ante el potencial uso malintencionado de esta tecnología. La conciencia pública y la inversión en investigación serán clave para enfrentar este desafío emergente.
Los ‘deepfakes’ de audio tienen diversos usos, tanto positivos como negativos. A continuación, mencionaré algunos de ellos:
- Entretenimiento: Los ‘deepfakes’ de audio pueden ser utilizados en la industria del entretenimiento para crear doblajes y voces de personajes ficticios o históricos, lo que brinda una experiencia más inmersiva para los espectadores.
- Doblaje y Localización: Esta tecnología puede ser aplicada para doblar películas, series y contenido en diferentes idiomas, facilitando su adaptación a audiencias internacionales.
- Asistentes Virtuales: Los ‘deepfakes’ de audio pueden mejorar la calidad y naturalidad de los asistentes virtuales, permitiendo una interacción más humana y fluida con dispositivos como teléfonos inteligentes o altavoces inteligentes.
- Educación y Aprendizaje de Idiomas: La generación de voces realistas puede ser útil en aplicaciones educativas y plataformas de aprendizaje de idiomas, facilitando la práctica de la pronunciación y entonación para los estudiantes.
- Audio Libros y Narración: Los ‘deepfakes’ de audio pueden dar vida a narraciones y audiolibros, proporcionando una experiencia auditiva más envolvente y atractiva para los oyentes.
Sin embargo, también existen usos negativos y riesgos asociados a los ‘deepfakes’ de audio:
- Fraude y Estafas: Los ciberdelincuentes pueden aprovechar esta tecnología para engañar a personas y empresas, realizando estafas telefónicas convincentes utilizando voces falsas de personas de confianza.
- Desinformación y Manipulación: Al igual que los ‘deepfakes’ de video, los audios manipulados pueden ser utilizados para difundir noticias falsas y desinformación, socavando la confianza en los medios de comunicación y en figuras públicas.
- Suplantación de Identidad: Los ‘deepfakes’ de audio podrían utilizarse para suplantar la voz de una persona, lo que podría tener consecuencias legales y dañar la reputación de la persona afectada.
- Amenazas a la Seguridad Nacional: En el contexto de la seguridad nacional, los ‘deepfakes’ de audio podrían utilizarse para generar mensajes falsos que causen pánico o inciten a la violencia.
En general, aunque los ‘deepfakes’ de audio tienen aplicaciones potencialmente beneficiosas, es fundamental estar conscientes de los riesgos asociados y desarrollar tecnologías de detección y prevención para mitigar su mal uso. La regulación y la educación en el uso responsable de esta tecnología también son aspectos importantes a considerar para salvaguardar la integridad de la información y la sociedad en general.
El estudio realizado por el University College de Londres tuvo como objetivo evaluar la capacidad de las personas para detectar ‘deepfakes’ de audio
En esta investigación, participaron más de 500 personas, quienes fueron sometidas a una serie de pruebas para diferenciar entre voces falsas y audios reales en inglés y mandarín.
Los participantes fueron conscientes de que algunos de los audios presentados eran falsos y recibieron ejemplos de imitaciones de voz para entrenar su capacidad de detección. Sin embargo, a pesar del entrenamiento previo, los resultados revelaron que solo pudieron detectar con éxito las imitaciones profundas del habla el 73% de las veces.
Además, los investigadores destacaron que el estudio no utilizó la tecnología más avanzada en IA generativa para crear los ‘deepfakes’ de audio, lo que sugiere que en situaciones reales, donde se empleen técnicas más sofisticadas, la tasa de detección podría ser aún menor.
IA y las Voces Engañosas
Los expertos en ciberseguridad consultados por ABC concuerdan con los resultados del estudio y señalan que la dificultad para detectar ‘deepfakes’ de audio aumentará con el tiempo, ya que las tecnologías de generación de voz seguirán mejorando y perfeccionándose.
En conclusión, el estudio de la University College de Londres resalta la preocupante dificultad que enfrenta el ser humano para diferenciar entre voces reales y falsas generadas por IA. Esto subraya la importancia de mejorar los detectores automáticos y la necesidad de concientizar sobre el riesgo que representan los ‘deepfakes’ de audio en la sociedad actual por la IA y las Voces Engañosas.
Inteligencia Artificial
Investigan a un Juez por el uso del Chat GPT en una sentencia con errores

Las autoridades brasileñas abrieron una investigación a un juez federal por usar una herramienta de inteligencia artificial que se equivocó en la redacción de una sentencia, en lo que sería la primera decisión de este tipo en Brasil.
El Consejo Nacional de Justicia (CNJ), órgano encargado de mejorar el sistema judicial, pidió al juez Jefferson Rodrigues que explique la publicación de una decisión que contenía fragmentos erróneos formulados por la herramienta ChatGPT.
Rodrigues, que se desempeña en el estado de Acre, fundamentó su sentencia con antecedentes procesales falsos, atribuidos al Supremo Tribunal de Justicia (STJ).
Según el documento, el magistrado alegó que la decisión redactada con la ayuda de inteligencia artificial (IA) fue elaborada por un «asesor de confianza». «Las disconformidades ocurrieron debido a la utilización de alguna herramienta virtual que se mostró inadecuada», se defendió el magistrado.
Rodrigues calificó la situación de «un mero equívoco» originado en la «frecuente sobrecarga de trabajo que recae sobre los hombros de los jueces». El magistrado dijo además que el autor del equívoco fue un asesor «experimentado» de su gabinete, por lo que no vio necesidad de «revisar» cada una de las jurisprudencias citadas erróneamente.
«Creemos que se trata del primer caso» de este tipo, dijo el CNJ, que dio al magistrado Rodrigues 15 días para que aclare la situación. De acuerdo con el propio CNJ, cada vez más tribunales brasileños utilizan herramientas de inteligencia artificial, aunque la tecnología todavía no fue regulada por una ley.
Antes de la decisión de la CNJ, una corregiduría regional había decidido archivar la investigación, ya que no detectó ninguna «infracción disciplinaria» por parte de Rodrigues ni de su ayudante.
Más Noticias Todos los temas en nuestras Redes Sociales
(Vía Página 12)
Inteligencia Artificial
El Chat GPT todavía desconoce el 20 por ciento del idioma español según un estudio

Un estudio reciente realizado por un equipo de investigadores de la Universidad Politécnica de Madrid comprobó que el Chat GPT desconoce el 20 por ciento del idioma español y que, con respecto al 80 por ciento de las palabras que sí conoce, interpreta significados equivocados en un 5 por ciento de las ocasiones. En efecto, confiar ciegamente en el robot conversacional para realizar una tarea en el ámbito educativo o profesional no sigue siendo la opción más deseable.
La investigación fue realizada a partir de una aplicación de código abierto y sencilla de usar, denominada Chat Words. En colaboración con colegas de las Universidades de Carlos III (Madrid) y la de Valladolid, los científicos se propusieron explorar en qué estado se encontraba el conocimiento léxico del robot. En esta línea, a partir del análisis de 90 mil palabras incluidas en el Diccionario de la Real Academia Española (casi la totalidad disponible), se reveló que el Chat GPT desconoce nada menos que un quinto, es decir, 18 mil.
“Más allá de algunos problemas metodológicos que tiene el trabajo, pienso que puede servir como punto de partida para la realización de investigaciones más concretas sobre el tema. Representa un aviso sobre el modo en que el incremento de este tipo de herramientas en actividades como el periodismo, la producción literaria y cualquier otra que implique escribir puede hacer que la riqueza del léxico se reduzca”, señala Emmanuel Iarussi, investigador del Conicet en el Laboratorio de IA de la Universidad Torcuato Di Tella. Y continúa: “De la misma manera que nos preocupa que estos modelos conversacionales siempre tengan el mismo enfoque y no capturen una diversidad de opiniones, también puede preocuparnos que reduzcan la cantidad de palabras que emplea para responder a nuestras preguntas”.
Si bien es cierto que se calcula un hispanohablante promedio identifica 30 mil palabras y que la máquina conoce mucho más, la comparación es sesgada si no se tiene en cuenta que el Chat GPT, en muchos casos, es consultado como un oráculo, como una fuente confiable de información. Desde aquí, existe una asimetría, en la medida en que a pesar de que fue creado hace poco tiempo (apenas un año), el robot que conversa exhibe credenciales que legitiman sus saberes más que los de cualquier persona. Entonces, se está en presencia de un oráculo imperfecto, de un sabio que no ofrece toda la rigurosidad que pretende revestirse.
Lo que se pierde el robot
La semana pasada, el Instituto Cervantes dio a conocer un dato clave: con 500 millones de hablantes nativos, el español es la segunda lengua materna a nivel mundial por detrás del chino mandarín. De esta manera, si se incluyen a quienes lo tienen como lengua materna, lo conocen un poco o lo están estudiando, un 7,5 por ciento de la población mundial es usuaria “potencial” del idioma. Asimismo, vale destacar que, según el reporte de 2023, el español sigue siendo la tercera lengua más usada en internet, por detrás del inglés y el chino, y la cuarta en relación al número de hablantes a nivel mundial (si se suman los nativos y quienes lo han aprendido).
La ventaja que, de cualquier manera, tiene el sistema es que su entrenamiento no se toma descanso. En Argentina, mientras se acercan las elecciones presidenciales, Taylor Swift llena estadios y todo sigue marcha, el Chat GPT se sigue perfeccionando a partir del aprendizaje automático. Como un boxeador que entrena a solas y en silencio, sin prisa, pero sin freno. Desde noviembre de 2022 hasta el presente, su crecimiento ha sido exponencial. De hecho, eso quizás sea lo más escalofriante: ¿qué sucederá cuando ya no queden vacíos por llenar y conozca el 100 por ciento del idioma? ¿Cuál será la barrera que separe a la inteligencia artificial de la humana?
A principios de noviembre, Elon Musk anticipó los detalles que caracterizarán a “Grok”, una nueva herramienta de IA, a la que se accederá a través de X (Twitter) y que “ama el sarcasmo”. Según el magnate, el punto a destacar es que se diferenciará de sus predecesoras y de su corrección política. Llegará pronto el día en que las máquinas comprendan las metáforas y el sentido profundo –y no solo literal– de las palabras. Cuando efectivamente suceda, el problema adquirirá otras dimensiones.
La regulación todavía está verde
De manera reciente, las naciones más poderosas del mundo agrupadas en el G7 acordaron el “Proceso de IA de Hiroshima”, el primer código de conducta para colocar límites a las empresas encargadas de desarrollar sistemas de inteligencia artificial. Lo que se busca, a partir de esta iniciativa de regulación es restringir las prácticas de desinformación, evitar la vulneración de derechos fundamentales como la privacidad y la intimidad, así como también, establecer pautas transparentes y fiables.
Una de las principales herramientas que están bajo la lupa de los Estados, precisamente, son los bots conversacionales. Aunque el documento no establece multas, brinda recomendaciones vinculadas a la supervisión y el monitoreo constante de los sistemas que, habitualmente, pueden estar asociados a las prácticas de fake news.
Este nuevo paso hacia la regulación se suma a otros antecedentes como la Recomendación sobre la ética de la Inteligencia Artificial de Unesco; la Carta de Derechos de Inteligencia Artificial que a fines de 2022 difundió el gobierno de Estados Unidos; el llamamiento que desde Latinoamérica hicieron más de 100 especialistas para crear “una inteligencia artificial regional al servicio de las personas”; la misiva ratificada por los propios Elon Musk y el cofundador de Apple, Steve Wozniak para pausar “inmediatamente” el entrenamiento de los sistemas de IA; y, finalmente, a la ley aprobada en junio pasado por el Parlamento Europeo que dispone que “cuanto mayor sea el riesgo de afectar los derechos o la salud de las personas, más obligaciones tendrán los sistemas tecnológicos”.
[email protected]
Más Noticias Todos los temas en nuestras Redes Sociales
(Vía Página 12)
Inteligencia Artificial
Claves para aprovechar el poder de la inteligencia artificial

La inteligencia artificial está cambiando la manera de trabajar en varios aspectos. En los últimos meses creció en las organizaciones la llamada inteligencia artificial generativa -conocida como GenAI.
La principal diferencia entre la IA tradicional y la IA generativa radica en sus capacidades y aplicaciones. Mientras los sistemas de IA tradicionales en general se utilizan para analizar datos y hacer predicciones, la IA generativa es capaz de crear datos similares a sus datos de entrenamiento.
La inteligencia artificial generativa ha experimentado un rápido avance en los últimos años, transformando la forma en que las empresas operan. En Latinoamérica notamos un gran entusiasmo entre las organizaciones por aprovechar su potencial, especialmente debido a la eficiencia y el ahorro de tiempo que ofrece.
Sin embargo, para sacar las máximas ventajas de esta tecnología es esencial definir cuidadosamente los casos de uso. Inicialmente las empresas la emplean para sacar partido del conocimiento interno y mejorar la interacción con los clientes en entornos digitales.
La importancia del asesoramiento para las empresas
La orientación y asesoramiento respecto a cómo las organizaciones pueden extraer valor de la GenAI son cruciales, ya que las empresas necesitan comprender cómo implementarla de manera efectiva, qué datos utilizar y cómo crear un caso de negocio sólido.
En definitiva, la adopción de estas soluciones requiere una curva de aprendizaje, y de la guía de un proveedor especializado, que esté actualizado respecto a todas las novedades que se dan en este campo.
Por ejemplo, Microsoft recientemente incorporó Copilot a MS Office 365, lo que hace que GenAI sea accesible para un amplio público para acelerar la productividad y permitir a los colaboradores centrarse en tareas de mayor valor ya que la GenAI ahora está incluida en el software de ofimática que muchas personas y empresas usan desde hace años.
En simultáneo, las empresas están migrando a la nube pública y adoptando IA para aumentar la rentabilidad, adaptarse a la fuerza laboral actual y mantenerse competitivas en un entorno tecnológicamente innovador. Por supuesto, también avanzan en esta línea para hacer más eficiente a la propia área de TI.
En este último sentido, la recomendación es que se enfoquen siempre en el caso de negocio que permite justificar la inversión, mejorar la performance de manera sostenible y realizar cambios a partir de los datos.
La GenAI está en sus primeras etapas y su potencial futuro es prometedor, especialmente a medida que las empresas adopten soluciones de Modern Workspace como MS Office 365 Copilot, y aprovechen soluciones como MS Azure, de la mano, siempre, de proveedores especializados.
En este sentido, BGH Tech Partner ya es Cloud Solution Provider de Microsoft para ayudar a las organizaciones en toda Latinoamérica a cambiar la forma en que trabajan de manera significativa para ganar en rentabilidad, eficiencia, agilidad e innovación.
Más Noticias Todos los temas en nuestras Redes Sociales
(Vía Página 12)
- Chaco7 días ago
Restos óseos hallados en el campo de Emerenciano Sena podrían pertenecer a Cecilia Strzyzowski
- Chaco6 días ago
Una mujer se tiró del Puente Chaco – Corrientes: había una denuncia por desaparición
- Chaco7 días ago
Intentó robar cables pero se cayó del poste y terminó en el hospital de Charata
- Chaco6 días ago
Charata: Dos santiagueños heridos tras el impactante vuelco de un camión
- Chaco7 días ago
Accidente vial en Corzuela: Automóvil colisionó con un animal en Ruta Nacional N° 89
- Chaco5 días ago
Fatal accidente entre un camión y una moto se cobró la vida de una persona
- Chaco5 días ago
Villa Berthet: un hombre de 30 años fue asesinado a puñaladas
- Chaco6 días ago
Una fuga en la garrafa casi provoca una tragedia en una vivienda de Charata