Fake news, deepfakes, imágenes engañosas: todo esto se puede crear utilizando inteligencia artificial. Así es como la IA significa que la información errónea se está propagando.

La Inteligencia Artificial (IA) ahora juega un papel en varios aspectos de nuestras vidas. Específicamente, las herramientas de IA generativa como ChatGPT y otras han crecido significativamente. Esto significa que habrá una gran cantidad de contenido generado por IA en el futuro.

Sin embargo, la IA generativa también presenta el riesgo de desinformación generada por la IA. Sus características facilitan que individuos oportunistas difundan información falsa. Entonces, exploremos cómo se utiliza la IA generativa para la desinformación.

Riesgos potenciales de la IA generativa para difundir desinformación

La IA generativa plantea muchas amenazas para las personas, como quitarles puestos de trabajo, más vigilancia y ataques cibernéticos. Y el los problemas de seguridad con la IA empeorarán aún más. Pero hay otra preocupación: la gente puede usarlo para difundir mentiras. Las personas engañosas pueden usar la IA generativa para compartir noticias falsas a través de contenido visual, auditivo o textual.

instagram viewer

Las noticias falsas se pueden clasificar en tres tipos:

  1. Desinformación: Información incorrecta o falsa no intencionada.
  2. Desinformación: Uso deliberado de información manipuladora o engañosa.
  3. desinformación: Noticias engañosas o una versión exagerada de la verdad.

Cuando combinado con tecnología deepfake, las herramientas generativas de IA pueden crear contenido que parezca y suene real, como imágenes, videos, clips de audio y documentos. Hay muchas posibilidades para crear contenido falso, por lo que saber cómo protegerse de videos deepfake es importante.

Los difusores de noticias falsas pueden generar contenido en grandes cantidades, lo que facilita su difusión entre las masas a través de las redes sociales. La desinformación dirigida puede emplearse para influir en las campañas políticas, lo que podría afectar las elecciones. Además, el uso de herramientas de generación de texto e imágenes de IA plantea preocupaciones con respecto a las leyes de derechos de autor, según lo informado por el Servicio de Investigación del Congreso: determinar la propiedad del contenido generado por estas herramientas se vuelve un desafío.

¿Cómo abordará la ley la propagación de noticias falsas a través de la IA generativa? ¿Quién será responsable de difundir información falsa: los usuarios, los desarrolladores o las propias herramientas?

4 formas en que la IA generativa se puede utilizar para difundir desinformación

Para mantenerse seguro en línea, todos deben comprender los riesgos de la IA generativa en la difusión de desinformación, ya que se presenta en muchas formas diferentes. Aquí hay algunas formas en que se puede usar para manipular a las personas.

1. Generación de contenido falso en línea

La creación de contenido falso utilizando IA generativa es una estrategia común empleada por aquellos que difunden noticias falsas. Utilizan herramientas populares de IA generativa como ChatGPT, DALL-E, Bard, Midjourney y otras para producir varios tipos de contenido. Por ejemplo, ChatGPT puede ayudar a los creadores de contenido de muchas maneras. Pero también puede generar publicaciones en redes sociales o artículos de noticias que pueden engañar a las personas.

Para probar esto, solicité a ChatGPT que escribiera un artículo inventado sobre el arresto del presidente estadounidense Joe Biden por cargos de corrupción. También le solicitamos que incluyera declaraciones de autoridades relevantes para que pareciera más creíble.

Aquí está el artículo ficticio que se le ocurrió a ChatGPT:

Sorprendentemente, el resultado fue muy persuasivo. Incluía los nombres y declaraciones de figuras autorizadas para que el artículo fuera más convincente. Esto muestra cómo cualquier persona puede usar tales herramientas para generar noticias falsas y difundirlas fácilmente en línea.

2. Uso de chatbots para influir en las opiniones de las personas

Los chatbots que se basan en modelos generativos de IA pueden emplear varias tácticas para influir en las opiniones de las personas, que incluyen:

  • manipulación emocional: AI puede usar modelos de inteligencia emocional para explotar desencadenantes emocionales y sesgos para dar forma a sus perspectivas.
  • Cámaras de eco y sesgo de confirmación: Los chatbots pueden reforzar las creencias existentes mediante la creación de cámaras de eco que validan sus sesgos. Si ya tiene un determinado punto de vista, la IA puede fortalecerlo al presentar información que se alinea con sus opiniones.
  • Prueba social y efecto carro: AI puede manipular el sentimiento público generando pruebas sociales. Esto puede tener consecuencias significativas, ya que puede llevar a las personas a conformarse con las opiniones populares o seguir a la multitud.
  • Personalización dirigida: Los chatbots tienen acceso a grandes cantidades de datos que pueden recopilar para crear perfiles personalizados. Esto les permite personalizar el contenido según sus preferencias. A través de la personalización dirigida, la IA puede persuadir a las personas o fortalecer aún más sus opiniones.

Todos estos ejemplos ilustran cómo se pueden utilizar los chatbots para engañar a las personas.

3. Creación de deepfakes de IA

Alguien puede usar deepfakes para crear videos falsos de un individuo diciendo o haciendo cosas que nunca hizo. Pueden usar tales herramientas para la ingeniería social o para ejecutar campañas de difamación contra otros. Además, en la cultura actual de los memes, los deepfakes pueden servir como herramientas para el ciberacoso en las redes sociales.

Además, los adversarios políticos pueden usar audio y videos falsos para empañar la reputación de sus oponentes, manipulando el sentimiento público con la ayuda de la IA. Entonces Los deepfakes generados por IA plantean numerosas amenazas en el futuro. Según un 2023 Informe de Reuters, el auge de la tecnología de inteligencia artificial podría afectar las elecciones estadounidenses de 2024. El informe destaca la accesibilidad de herramientas como Midjourney y DALL-E que pueden crear fácilmente contenido inventado e influir en las opiniones colectivas de las personas.

Es crucial, entonces, poder identificar videos creados por deepfakes y distinguirlos de los originales.

4. Clonación de voces humanas

La IA generativa, junto con la tecnología deepfake, permite la manipulación del discurso de alguien. La tecnología Deepfake avanza rápidamente y ofrece una variedad de herramientas que pueden replicar la voz de cualquier persona. Esto permite que personas malintencionadas se hagan pasar por otros y engañen a personas desprevenidas. Un ejemplo de ello es el uso de música deepfake.

Es posible que te hayas encontrado con herramientas como parecerse a la IA, Perorar, Falso que, y otros que pueden imitar las voces de las celebridades. Si bien estas herramientas de audio de IA pueden ser entretenidas, presentan riesgos significativos. Los estafadores pueden utilizar técnicas de clonación de voz para varios esquemas fraudulentos, lo que resulta en pérdidas financieras.

Los estafadores pueden usar voces falsas para hacerse pasar por tus seres queridos y llamarte, fingiendo estar angustiado. Con un audio sintético que suena convincente, podrían instarte a enviar dinero urgentemente, lo que te convertiría en víctima de sus estafas. Un incidente reportado por el poste de washington en marzo de 2023 ejemplifica este problema: los estafadores usaron voces falsas para convencer a las personas de que sus nietos estaban en la cárcel y necesitaban dinero...

Cómo detectar la desinformación propagada por IA

Combatir la difusión de desinformación facilitada por la IA es un problema apremiante en el mundo actual. Entonces, ¿cómo puede detectar información falsa creada por IA?

  1. Acérquese al contenido en línea con escepticismo. Si encuentra algo que parece manipulador o increíble, verifíquelo mediante una verificación cruzada.
  2. Antes de confiar en un artículo de noticias o una publicación en las redes sociales, asegúrese de que provenga de una fuente confiable.
  3. Esté atento a los indicadores de falsificaciones profundas, como parpadeo o movimientos faciales no naturales, mala calidad de audio, imágenes distorsionadas o borrosas y falta de emoción genuina en el habla.
  4. Use sitios web de verificación de hechos para verificar la exactitud de la información.

Al seguir estos pasos, puede identificarse y protegerse de la información errónea impulsada por IA.

Cuidado con la desinformación difundida por IA

El software generativo ha jugado un papel crucial en el avance de la IA. Aún así, también pueden ser una fuente importante de desinformación en la sociedad. Estas herramientas asequibles han permitido que cualquiera pueda crear diferentes tipos de contenido utilizando modelos sofisticados de IA; su capacidad para generar contenido en grandes cantidades e incorporar deepfakes los hace aún más peligrosos.

Es importante que sea consciente de los desafíos de la desinformación en la era de la IA. Comprender cómo se puede usar la IA para difundir noticias falsas es el primer paso para protegerse de la información errónea.