talón El choque entre el poder de la IA y las normas democráticas – Securities.io
Contáctenos

Inteligencia Artificial

El choque entre el poder de la IA y las normas democráticas

mm

Securities.io mantiene rigurosos estándares editoriales y podría recibir una compensación por los enlaces revisados. No somos asesores de inversiones registrados y esto no constituye asesoramiento de inversión. Consulte nuestra divulgación de afiliados.

Imagen dividida fotorrealista de un rostro digital de IA brillante conectado por líneas de red neuronal al edificio del Capitolio de los EE. UU. iluminado al anochecer, que simboliza la gobernanza de IA y las instituciones democráticas.

A medida que la tecnología de IA se vuelve más predominante y poderosa, se ha vuelto cada vez más difícil encontrar un equilibrio entre los valores democráticos y el progreso tecnológico. Por un lado, nunca ha sido tan fácil para las personas compartir sus visiones con las masas.

Sin embargo, la IA carece de límites, lo que significa que constantemente supera los límites de casi todas las métricas sociales. Así es como los desarrolladores de IA siguen intentando armonizar las capacidades de la IA con los valores democráticos, y por qué podría ser imposible lograrlo.

Resumen: El gobierno sigue presionando a las empresas de IA para que bajen sus restricciones. Esta situación ha provocado conflictos internos, acalorados debates y empresas como Anthropic se enfrentan a restricciones federales de uso y decisiones de retirada gradual.

Cómo la IA está transformando la protección de la libertad de expresión

La inteligencia artificial ha tenido un impacto rotundo en la libertad de expresión. Por un lado, ha facilitado la creación de representaciones vibrantes de su visión y su difusión pública a través de las redes sociales. También ha reducido los costos de producción a casi cero, lo que permite a cualquier organización defender su causa virtualmente.

Las herramientas de IA ofrecen varias ventajas, como la posibilidad de modificar y personalizar fácilmente sus mensajes para adaptarse a grupos demográficos específicos. Además, hasta la fecha, el contenido de IA se ha considerado protegido por la Primera Enmienda. Por lo tanto, permite a los creadores expresarse libremente.

Por el contrario, la IA ha generado una avalancha de desinformación. Es más difícil que nunca distinguir qué información proviene de un auténtico experto de qué información fue creada por un algoritmo. Lamentablemente, el resultado es una erosión de la confianza en los sistemas.

Cómo los algoritmos de las redes sociales amplifican la desinformación de la IA

Para agravar el caos, los algoritmos de las redes sociales pueden promover deepfakes, ya que suelen ser más controvertidos y generan mayor interacción. Esto crea un ciclo donde las falsedades se muestran con mayor prominencia que la información real. Lamentablemente, ninguna normativa exige que la desinformación generada por IA deba ser etiquetada.

IA y participación ciudadana en sistemas democráticos

La inteligencia artificial facilita una mayor participación ciudadana. Sus sistemas facilitan que el gobierno y la ciudadanía comuniquen sus ideas y monitoreen el consenso público. Además, ha demostrado ser útil para resumir legislación compleja y compartir datos vitales para informar a la ciudadanía.

Riesgos de la vigilancia de la IA y preocupaciones sobre la privacidad democrática

Existen varias riesgos de vigilancia que la IA crea junto con el impulso de la participación. Estos sistemas pueden rastrear fácilmente a los votantes. Existen sistemas de IA que pueden revisar tu huella digital completa y proporcionar una evaluación de tus opiniones políticas en función de tu actividad web.

Además, esta tecnología puede utilizarse para determinar la identidad de una persona basándose en su huella digital o preferencias. Todas estas herramientas no requieren una orden judicial como las tecnologías anteriores. Por lo tanto, el potencial de abuso aumenta.

El papel de la IA en las elecciones modernas y la integridad electoral

La inteligencia artificial ofrece varias ventajas al proceso electoral. Por un lado, facilita el seguimiento de los resultados. Los sistemas de IA también pueden ayudar a detectar cualquier interrupción relacionada con la intimidación o las amenazas a los votantes.

Deepfakes de IA y la crisis de confianza política

De toda la desinformación generada por IA que causa caos hoy en día, los principales problemas surgen en torno a los deepfakes. Esta tecnología permite crear fácilmente copias de funcionarios públicos, profesionales de la industria o de cualquier persona, incluidos candidatos políticos.

Fuente - BBC

Fuente - BBC

Las falsificaciones políticas profundas siguen causando problemas a los funcionarios y distorsionando la información pública. El problema es que estas falsificaciones se han vuelto casi indistinguibles de la realidad. Por ello, han sido adoptadas por casi todo tipo de grupos que buscan sembrar el caos o sembrar la desconfianza en la ciudadanía.

El “dividendo del mentiroso” y la erosión de la confianza pública

El bombardeo constante de deepfakes de IA tiene otro efecto inesperado: el dividendo del mentiroso. Este término se refiere a un incidente que cuenta con hechos y pruebas reales, pero que, aun así, el acusado niega que sea una deepfake de IA.

Esta estrategia socava la confianza en los sistemas y crea un escenario donde la persona promedio no puede tomar decisiones informadas. Además, destruye cualquier posibilidad de un debate razonable, ya que todas las partes están polarizadas debido a la desinformación.

Ejemplos reales de deepfakes de IA en elecciones

Hay varios ejemplos recientes de deepfakes que han causado estragos durante las elecciones. Un incidente notable ocurrió el 21 de enero de 2024, cuando se utilizó una deepfake de llamada robótica. El sistema de IA se configuró para contactar a demócratas registrados.

Cuando respondieron, un Voz deepfake del presidente Joe Biden se utilizó para instarlos a “guardar su voto para noviembre“Los informes muestran que su mensaje llegó a 20,000 personas, lo que provocó que muchas optaran por no acudir a las elecciones, como decía el mensaje.

Cuando surgieron los informes sobre las llamadas robóticas, se inició una investigación. Sin embargo, esto ya había ocurrido después de que las elecciones hubieran concluido y no se realizó ninguna nueva votación. Este escenario es solo uno de los muchos que ponen de manifiesto los peligros de la interferencia electoral mediante deepfakes con IA.

El escándalo de las deepfakes en las elecciones de 2023 en Eslovaquia

Otro ejemplo de interferencia de la IA en las elecciones ocurrió en Elecciones de 2023 en EslovaquiaEn este incidente, surgió un video falso que mostraba al líder de Eslovaquia Progresista, Michal Šimečka, hablando sobre fraude electoral. El video fue posteriormente etiquetado como falso, pero no antes de haber recibido millones de visualizaciones y compartidos en TikTok, Facebook y Telegram.

Cómo detectar deepfakes de IA en 2026

Detectar deepfakes no es tarea fácil. Antes, la tecnología solía dejar muchos errores, como parpadeos antinaturales, iluminación extraña o incluso la apariencia de sincronización de labios. Las investigaciones sugieren que los humanos suelen ser deficientes a la hora de detectar deepfakes de alta calidad, con resultados casi aleatorios según el contexto y la modalidad.

Una forma de determinar si un video es un deepfake es buscar en Google los fotogramas de la imagen para encontrar el contenido original. También intentarán usar el audio para buscar sonidos artificiales. En algunos casos, es imposible detectar un deepfake de alta calidad sin herramientas técnicas.

Las mejores herramientas de detección de deepfakes con IA y sus limitaciones

Irónicamente, las herramientas de IA son la mejor opción para determinar la legitimidad de un video. Estas opciones incluyen Escáner de software profundo, Defensor de la realidad, De Microsoft Autenticador de video, y más.

Estos protocolos cuentan con algoritmos propios diseñados para localizar cualquier inconsistencia o patrón de píxeles en los fotogramas de vídeo de IA. Estos sistemas también pueden cruzar las incidencias con datos locales, lo que les permite detectar una interferencia de IA.

Las mejores herramientas de detección de IA no son perfectas, con protocolos como Bio-identificación Con una puntuación del 98 % en pruebas recientes. El hecho de que el 2 % de los deepfakes fueran detectables incluso por otros sistemas de IA es motivo de preocupación de cara al futuro.

La alfabetización mediática como defensa contra la manipulación de la IA

Quizás la mejor manera de combatir los deepfakes sea centrarse en fomentar la alfabetización mediática entre las masas. Es fundamental que exista una etiqueta obligatoria que facilite determinar si un vídeo es un deepfake o legítimo.

Por qué la autorregulación de las grandes tecnológicas ha fracasado en la gobernanza de la IA

La historia ha demostrado que las empresas tecnológicas no pueden autorregularse. Su prioridad son las ganancias y la innovación. Este deseo puede ir en detrimento de la privacidad y la verdad. Por lo tanto, no existe ningún escenario en el que una empresa tecnológica pueda evitar eficazmente que los deepfakes lleguen a sus seguidores.

Esfuerzos gubernamentales para regular la IA en 2026

Ante la incapacidad de las empresas tecnológicas para brindar la protección necesaria contra estos problemas, los gobiernos han comenzado a tomar la iniciativa. Sin embargo, este escenario no es ideal, ya que los gobiernos no comprenden la tecnología de una manera que les permita crear salvaguardas que no obstaculicen la innovación.

Empresas de IA vs. Gobierno: El choque de políticas en 2026

La brecha entre los gobiernos y los proveedores de IA ha comenzado a crecer en los últimos meses. Mientras los legisladores se esfuerzan por proteger al público de las falsificaciones y la desinformación, el ejército sigue presionando para la plena integración de las herramientas de IA en su arsenal.

Este deseo de utilizar esta tecnología como parte de la cadena de destrucción ha provocado varios enfrentamientos públicos entre empresas y el gobierno estadounidense. A continuación, se presentan algunos de los incidentes más recientes, que resaltan los riesgos y el posible lado oscuro de la guerra de IA.

Antrópico vs. el Departamento de Defensa de EE.UU.

Antrópico se encuentra en medio de una disputa pública con el Departamento de Defensa de EE. UU. sobre el uso de su modelo de IA Claude. El desacuerdo gira en torno a conceder acceso ilimitado a la IA, lo que podría resultar en que el sistema se utilice para realizar vigilancia doméstica masiva.

Anthropic, lanzada en 2021, también ha denegado el acceso total debido a la preocupación por la fiabilidad de los sistemas de segmentación de IA. Ambas líneas rojas fueron establecidas por el director ejecutivo de la compañía, Dario Amodei, quien citó la falta de fiabilidad como una de sus principales preocupaciones.

Límites propuestos por Anthropic al uso de IA militar

En este sentido, el Pentágono argumenta que este contrato de 200 millones de dólares debería incluir acceso sin restricciones. Anthropic hizo algunas concesiones durante el debate, incluyendo permitir el uso de los sistemas de IA en misiles y defensa. Incluso afirmó que aceptaría las operaciones de la NSA, siempre que excluyeran la vigilancia masiva de ciudadanos estadounidenses.

Por qué el Pentágono rechazó las restricciones de Anthropic

Sin embargo, eso no fue suficiente para los funcionarios del Pentágono. Poco después de que Anthropic negara esta afirmación, la administración Trump prohibió el uso de sus productos por parte de cualquier organización federal. En concreto, el presidente calificó los productos de Anthropic como un "riesgo para la seguridad nacional". Los informes sobre la disputa también mencionaron la Ley de Producción de Defensa como una posible herramienta de presión, aunque el fundamento legal preciso debe describirse con cuidado a menos que se cite directamente de la orden.

Esta maniobra significa que Anthropic no podrá conseguir ningún contrato militar o gubernamental en el futuro, lo que deja a la empresa en un escenario precario en el que deberá elegir entre sus creencias fundamentales y las ganancias.

Cómo respondieron OpenAI y xAI al cambio del Pentágono

OpenAI, competidor de Anthropic, rápidamente asumió el cargo, prometiendo total cumplimiento con el Pentágono. Por ello, la compañía firmó un acuerdo clasificado con el gobierno, que incluye el uso legal sin restricciones de su sistema de IA.

Aplicaciones militares actuales de la inteligencia artificial

Ya existen numerosos ejemplos de sistemas de IA que contribuyen a aumentar el ritmo y la escala de la guerra. Estos sistemas están optimizados para funcionar en conjunto con el creciente número de sistemas autónomos, como la tecnología de enjambre de drones.

La inteligencia artificial se considera revolucionaria, ya que puede combinar la información de una enorme variedad de sensores para proporcionar una orientación más rápida y mucho más. También es crucial en los sectores logístico y financiero del ejército, donde puede ayudar a garantizar que el mantenimiento preventivo y otras tareas clave se realicen según lo previsto.

El uso de sistemas de inteligencia artificial por parte de Israel en Gaza

El uso de sistemas de selección de objetivos con IA se destacó en la campaña israelí en Gaza. Estas operaciones aprovecharon herramientas como Lila para cruzar referencias de los movimientos de una persona con posibles comportamientos militantes.

Esta herramienta permitió al ejército israelí rastrear y localizar a combatientes de Hamás de bajo rango antes de bombardearlos en sus hogares. Cabe destacar que, según el personal militar israelí, el sistema tiene una tasa de error del 10 %. Sin embargo, esta cifra es muy discutible.

Explicación del sistema de segmentación por IA del Evangelio

Otra herramienta de inteligencia artificial israelí denominada Evangelio Está configurado para proporcionar 100 objetivos diarios. Cruza movimientos y otros datos para localizar posibles edificios que podrían albergar cazas enemigos. Este sistema se utiliza a menudo con el "¿Dónde está papá? Programa de IA que permite el seguimiento autónomo del personal señalado.

IA en la aplicación de la ley: detección de amenazas y riesgos para la privacidad

El uso de sistemas de IA en las fuerzas del orden es otro debate muy controvertido. A muchos les sorprendió saber que los sistemas de ChatGPT... El autor de la masacre de Tumbler Ridge, CanadáJesse Van Rootselaar, como una amenaza potencial.

En concreto, el sistema de IA detectó infracciones de políticas ocho meses antes, en las que el usuario formuló reiteradas consultas sobre violencia con armas de fuego. La consulta se envió a varios revisores humanos, lo que provocó el bloqueo de la cuenta y la denuncia del usuario.

Por qué los sistemas de señalización de IA a menudo no logran activar la intervención

A pesar de las alarmas, la compañía afirma que la cuenta no superó el umbral de lo que consideran una amenaza activa. Por lo tanto, las autoridades nunca fueron notificadas. De haberlo sido, podrían haber entrevistado y salvado ocho vidas el 10 de febrero de 2026.

Curiosamente, los registros internos de la empresa muestran que hubo un debate sobre la notificación a las autoridades tras el bloqueo de la cuenta. Posteriormente se reveló que el atacante abrió otra cuenta para evadir el bloqueo antes de sus ataques.

Los funcionarios gubernamentales argumentan que era responsabilidad de OpenAI notificar a las autoridades sobre el chat sospechoso y que, de haberlo hecho, podría haber ayudado a salvar vidas. Por otro lado, la empresa afirmó que mejorará el intercambio de datos y el tiempo de respuesta, reduciendo sus umbrales.

Carta sobre ética de la IA «No nos dividiremos»

El "Carta No Estaremos Divididos"es un llamado abierto a los empleados de IA para que se opongan públicamente a las armas totalmente autónomas y la vigilancia masiva, y para que impulsen compromisos de seguridad vinculantes en toda la industria. La carta insta a los desarrolladores de IA a no apoyar en modo alguno las armas totalmente autónomas ni las operaciones de vigilancia masiva.

También crea una lista de líneas de seguridad compartidas diseñadas para prevenir un escenario de IA descontrolada. Estas directrices incluyen elementos como la inclusión de un humano en el circuito para la supervisión y la aprobación de cualquier actividad letal. Además, promueve la transparencia para prevenir el abuso.

El objetivo principal de la carta es crear un conjunto de estándares éticos que todas las empresas de IA puedan seguir para evitar que esta tecnología complique la vida de todos los habitantes del planeta. Esta carta llega en un momento crucial en la adopción de la IA, ya que los ejércitos se han vuelto dependientes de esta tecnología para operaciones de selección de objetivos y recopilación de información.

La postura de las principales empresas de IA respecto a su uso en el gobierno y los militares

Al examinar estos dos escenarios tan diferentes, se observa cómo las empresas de IA siguen fusionando operaciones con agencias gubernamentales. Esta fusión requerirá un delicado equilibrio de capacidades con salvaguardas y transparencia para prevenir abusos. A continuación, se presenta la postura actual de cada empresa respecto a las operaciones gubernamentales.

Deslizar para desplazarse

Proveedor Postura Estado del contrato
Antrópico Acceso limitado Uso federal restringido/eliminado gradualmente
Google Soporte empresarial completo Se reportan contratos de CDAO (~$200 millones)
OpenAI Despliegues de “uso legal” (salvaguardias declaradas) Se informa sobre los despliegues de defensa
xAI Se informa sobre la voluntad de “uso lícito” Se informa sobre el trabajo del gobierno

Antrópico

Anthropic se ha mantenido fiel a sus estándares fundamentales, buscando mantener límites estrictos en los casos de uso de la focalización autónoma y la vigilancia masiva. Sin embargo, parece estar pagando caro su guía moral, ya que las agencias federales decidieron restringir o eliminar gradualmente el uso de sus modelos en ciertos entornos.

OpenAI

OpenAI apoya la integración gubernamental. La empresa ansiaba posicionarse cuando Anthropics perdió su contrato con el Departamento de Defensa por ceñirse a su misión principal. OpenAI ha acordado implementar modelos en entornos de defensa bajo un marco de "uso legal". La empresa afirma que prohíbe la vigilancia masiva nacional y exige responsabilidad humana por el uso de la fuerza.

xAI

xAI de Elon Musk ha sido un firme defensor de la integración de la IA en la doctrina bélica. Los informes indican que xAI ha mostrado su disposición a apoyar despliegues gubernamentales clasificados bajo condiciones de "uso legal", aunque los detalles operativos siguen siendo limitados.

Google

Google (GOOGL ) Ha habido un intenso debate interno sobre el uso de su sistema en la guerra. La compañía logró que más de 300 empleados clave firmaran una carta abierta que instaba a los proveedores de IA a rechazar contratos abiertos con el Pentágono. Sin embargo, Google tiene más de 200 millones de dólares en contratos CDAO, lo que significa que están bajo mucha presión para ceder.

Para llevar del inversor: La gobernanza de la IA se perfila como una ventaja competitiva. Las empresas que se alinean con los marcos regulatorios, manteniendo al mismo tiempo su capacidad de innovación, probablemente obtendrán contratos gubernamentales a largo plazo y la confianza institucional. Las empresas expuestas a riesgos de deepfakes o controversias de vigilancia podrían enfrentarse a dificultades reputacionales y de cumplimiento normativo.

Últimas noticias y rendimiento de GOOGLE (GOOGL)

El futuro de la gobernanza de la IA y la estabilidad democrática

Al examinar la integración de los sistemas de IA en todo, desde el gobierno hasta las operaciones militares, es fácil reconocer la necesidad de ciertas medidas de protección. Estos sistemas se han vuelto increíblemente poderosos tanto en términos técnicos como sociales. Esperemos que las empresas de IA comprendan la importancia de su división y se adhieran a los estándares éticos antes de que sea demasiado tarde. Tal como están las cosas ahora, parece que las ganancias van a ganar esta carrera.

Conozca otros avances en IA aquí.

David Hamilton es periodista de tiempo completo y bitcoinista desde hace mucho tiempo. Se especializa en escribir artículos sobre blockchain. Sus artículos han sido publicados en múltiples publicaciones de bitcoin, incluidas Bitcoinlightning.com

Divulgación anunciante: Securities.io está comprometido con estándares editoriales rigurosos para brindar a nuestros lectores reseñas y calificaciones precisas. Es posible que recibamos una compensación cuando hace clic en enlaces a productos que revisamos.

ESMA: Los CFD son instrumentos complejos y conllevan un alto riesgo de perder dinero rápidamente debido al apalancamiento. Entre el 74% y el 89% de las cuentas de inversores minoristas pierden dinero al operar con CFD. Debe considerar si comprende cómo funcionan los CFD y si puede permitirse el lujo de correr el alto riesgo de perder su dinero.

Descargo de responsabilidad sobre consejos de inversión: La información contenida en este sitio web se proporciona con fines educativos y no constituye asesoramiento de inversión.

Descargo de responsabilidad de riesgo comercial: Existe un grado muy alto de riesgo involucrado en la negociación de valores. Negociar con cualquier tipo de producto financiero, incluidos Forex, CFD, acciones y criptomonedas.

Este riesgo es mayor con las criptomonedas debido a que los mercados están descentralizados y no regulados. Debe tener en cuenta que puede perder una parte importante de su cartera.

Securities.io no es un corredor, analista o asesor de inversiones registrado.