mozzicone Lo scontro tra il potere dell'intelligenza artificiale e le norme democratiche – Securities.io
Seguici sui social

Intelligenza Artificiale

Lo scontro tra il potere dell'intelligenza artificiale e le norme democratiche

mm

Securities.io mantiene rigorosi standard editoriali e potrebbe ricevere compensi per i link recensiti. Non siamo consulenti finanziari registrati e questo non costituisce consulenza finanziaria. Si prega di consultare il nostro divulgazione di affiliati.

Immagine fotorealistica divisa di un volto digitale luminoso basato sull'intelligenza artificiale, collegato tramite linee di rete neurale al Campidoglio degli Stati Uniti illuminato al tramonto, a simboleggiare la governance dell'intelligenza artificiale e le istituzioni democratiche.

Con la diffusione e la potenza della tecnologia dell'intelligenza artificiale, è diventato sempre più difficile trovare un equilibrio tra valori democratici e progresso tecnologico. Da un lato, non è mai stato così facile per le persone condividere le proprie visioni con le masse.

Tuttavia, l'intelligenza artificiale non ha barriere difensive, il che significa che spinge costantemente i limiti di quasi ogni metrica sociale. Ecco come gli sviluppatori di intelligenza artificiale continuano a cercare di creare armonia tra le capacità dell'intelligenza artificiale e i valori democratici, e perché potrebbe essere impossibile riuscirci.

Sommario: Il governo continua a fare pressione sulle aziende di intelligenza artificiale affinché abbassino i loro limiti. Questo scenario ha portato a conflitti interni, accesi dibattiti e aziende come Anthropic si sono trovate ad affrontare restrizioni federali sull'uso e decisioni di eliminazione graduale.

Come l'intelligenza artificiale sta rimodellando la tutela della libertà di parola

L'intelligenza artificiale ha avuto un impatto clamoroso sulla libertà di parola. Innanzitutto, ha reso più facile per le persone creare rappresentazioni vivide della propria visione e condividerle con il pubblico attraverso i social media. Ha anche ridotto i costi di produzione quasi a zero, consentendo a qualsiasi organizzazione di sostenere la propria causa virtualmente.

Gli strumenti di intelligenza artificiale offrono diversi vantaggi, tra cui la possibilità di modificare e personalizzare facilmente i messaggi per soddisfare specifiche fasce demografiche. Inoltre, i contenuti basati sull'intelligenza artificiale sono stati finora considerati protetti dal Primo Emendamento. In quanto tali, consentono ai creatori di esprimersi liberamente.

Al contrario, l'intelligenza artificiale ha portato a un'ondata di disinformazione. È più difficile che mai per le persone distinguere quali informazioni provengono da un vero esperto da quali sono state create da un algoritmo. Purtroppo, il risultato è un'erosione della fiducia nei sistemi.

Come gli algoritmi dei social media amplificano la disinformazione sull'intelligenza artificiale

A complicare ulteriormente la situazione, gli algoritmi dei social media possono promuovere i deepfake, poiché sono spesso più controversi e generano maggiore interazione. Questo crea un circolo vizioso in cui le falsità vengono messe in risalto più delle informazioni reali. Purtroppo, nessun mandato stabilisce che la disinformazione generata dall'IA debba essere etichettata.

Intelligenza artificiale e partecipazione dei cittadini nei sistemi democratici

L'intelligenza artificiale apre le porte a una più ampia partecipazione dei cittadini. I suoi sistemi facilitano la comunicazione delle idee tra governo e cittadini e il monitoraggio del consenso pubblico. Inoltre, si è dimostrata utile per riassumere normative complesse e condividere dati essenziali per informare i cittadini.

Rischi della sorveglianza dell'intelligenza artificiale e preoccupazioni sulla privacy democratica

Ci sono diversi rischi di sorveglianza che l'intelligenza artificiale crea insieme alla partecipazione. Questi sistemi possono facilmente tracciare gli elettori. Esistono sistemi di intelligenza artificiale in grado di analizzare la tua impronta digitale completa e fornire una valutazione delle tue opinioni politiche in base alla tua attività sul web.

Inoltre, questa tecnologia può essere utilizzata per determinare l'identità di una persona in base alla sua impronta digitale o alle sue preferenze. Tutti questi strumenti non richiedono un mandato come le tecnologie precedenti. Pertanto, il rischio di abuso è maggiore.

Il ruolo dell'intelligenza artificiale nelle elezioni moderne e nell'integrità elettorale

L'intelligenza artificiale offre diversi vantaggi al processo elettorale. Innanzitutto, semplifica il monitoraggio dei risultati. I sistemi di intelligenza artificiale possono anche aiutare a monitorare eventuali interruzioni in termini di intimidazioni o minacce agli elettori.

Deepfake dell'intelligenza artificiale e crisi di fiducia politica

Tra tutte le disinformazioni sull'intelligenza artificiale che stanno creando caos oggi, i problemi principali riguardano i deepfake. Questa tecnologia consente di creare facilmente duplicati di funzionari pubblici, professionisti del settore o di chiunque si desideri, compresi i candidati politici.

Fonte - BBC

Fonte - BBC

I deepfake politici continuano a creare problemi ai funzionari e a distorcere le informazioni trasmesse al pubblico. Il problema è che questi falsi sono diventati quasi indistinguibili dall'originale. Di conseguenza, sono stati adottati da quasi ogni tipo di gruppo che cerca di creare caos o seminare sfiducia nell'opinione pubblica.

Il “dividendo del bugiardo” e l’erosione della fiducia pubblica

Il bombardamento costante di deepfake basati sull'intelligenza artificiale ha un altro effetto inaspettato: il cosiddetto dividendo del bugiardo. Questo termine si riferisce a un incidente supportato da fatti e prove autentici, ma che viene comunque negato dall'accusato come un deepfake basato sull'intelligenza artificiale.

Questa strategia mina la fiducia nei sistemi e crea uno scenario in cui la persona media non riesce a prendere decisioni informate. Inoltre, annienta ogni possibilità di dibattito ragionevole, poiché tutte le parti sono polarizzate su determinati argomenti a causa della disinformazione.

Esempi concreti di deepfake basati sull'intelligenza artificiale nelle elezioni

Ci sono diversi esempi recenti di deepfake che hanno creato scompiglio durante le elezioni. Un incidente degno di nota si è verificato il 21 gennaio 2024, quando è stato utilizzato un deepfake di robocall. Il sistema di intelligenza artificiale era stato configurato per contattare i democratici registrati.

Quando risposero, un La voce deepfake del presidente Joe Biden è stato utilizzato per esortarli a "riservare il voto per novembre". I resoconti mostrano che il suo messaggio è stato inviato a 20,000 persone, spingendo molti a saltare le elezioni, come indicato nel messaggio.

Quando si è diffusa la notizia delle chiamate automatiche, è stata avviata un'indagine. Tuttavia, l'indagine è stata avviata già a elezioni concluse e non è stata effettuata alcuna nuova votazione. Questo scenario è solo uno dei tanti che evidenziano i pericoli dell'interferenza elettorale tramite deepfake basati sull'intelligenza artificiale.

Lo scandalo dei deepfake delle elezioni slovacche del 2023

Un altro esempio di interferenza dell’IA nelle elezioni si è verificato in Elezioni slovacche del 2023In questo incidente, è emerso un video falso che mostrava il leader del Partito Progressista Slovacco Michal Šimečka discutere di brogli elettorali. Il video è stato successivamente etichettato come falso, ma solo dopo aver ricevuto milioni di visualizzazioni e condivisioni su TikTok, Facebook e Telegram.

Come rilevare i deepfake basati sull'intelligenza artificiale nel 2026

Rilevare i deepfake non è un compito facile. In passato, la tecnologia lasciava molti errori, come ammiccamenti innaturali, luci anomale o persino la comparsa di sincronizzazione labiale. La ricerca suggerisce che gli esseri umani sono spesso incapaci di rilevare deepfake di alta qualità, spesso con risultati quasi casuali a seconda del contesto e della modalità.

Un modo per determinare se un video è un deepfake è cercare i frame dell'immagine su Google per trovare il contenuto originale. Si cercherà anche di utilizzare l'audio per cercare suoni innaturali. In alcuni casi, è impossibile rilevare un deepfake di alta qualità senza alcuni strumenti tecnici.

I migliori strumenti di rilevamento dei deepfake basati sull'intelligenza artificiale e i loro limiti

Ironicamente, gli strumenti di intelligenza artificiale sono l'opzione migliore da utilizzare quando si cerca di determinare la legittimità di un video. Queste opzioni includono Scanner Deepware, Difensore della realtà, Di Microsoft Autenticatore videoE altro ancora.

Questi protocolli utilizzano algoritmi proprietari progettati per individuare eventuali incongruenze o pattern nei pixel rilevati nei frame video generati dall'intelligenza artificiale. Questi sistemi possono anche incrociare le occorrenze con i dati locali, consentendo loro di individuare un'interferenza causata dall'intelligenza artificiale.

I migliori strumenti di rilevamento dell'intelligenza artificiale non sono perfetti, con protocolli come Bio-ID con un punteggio del 98% nei test recenti. Il fatto che il 2% dei deepfake fosse riconoscibile anche da altri sistemi di intelligenza artificiale è motivo di preoccupazione per il futuro.

L'alfabetizzazione mediatica come difesa contro la manipolazione dell'intelligenza artificiale

Forse il modo migliore per combattere i deepfake è concentrarsi sulla promozione dell'alfabetizzazione mediatica tra le masse. È fondamentale che ci sia un'etichetta obbligatoria che faciliti la determinazione se un video è un deepfake o meno.

Perché l'autoregolamentazione delle Big Tech ha fallito nella governance dell'IA

La storia ha dimostrato che le aziende tecnologiche non possono autoregolamentarsi. Il loro focus è sul profitto e sull'innovazione. Questo desiderio può andare a discapito della privacy e della verità. Pertanto, non esiste uno scenario in cui un'azienda tecnologica possa effettivamente impedire ai deepfake di raggiungere i propri follower.

Sforzi governativi per la regolamentazione dell'intelligenza artificiale nel 2026

Poiché le aziende tecnologiche non sono in grado di fornire le necessarie protezioni contro questi problemi, i governi hanno iniziato a prendere in mano la situazione. Tuttavia, questo scenario non è ideale, poiché i governi non comprendono la tecnologia in modo tale da poter creare misure di salvaguardia che non ne soffochino l'innovazione.

Aziende di intelligenza artificiale contro governi: lo scontro politico del 2026

La frattura tra governi e fornitori di intelligenza artificiale ha iniziato ad aggravarsi negli ultimi mesi. Mentre i legislatori sono ansiosi di proteggere il pubblico da falsificazioni e disinformazione, l'esercito continua a spingere per la piena integrazione degli strumenti di intelligenza artificiale nel proprio arsenale.

Il desiderio di utilizzare questa tecnologia come parte della kill chain ha portato a diversi scontri pubblici tra aziende e governo statunitense. Ecco alcuni degli incidenti più recenti, che evidenziano i rischi e il potenziale lato oscuro della guerra basata sull'intelligenza artificiale.

Anthropic contro il Dipartimento della Difesa degli Stati Uniti

Antropico è nel mezzo di una disputa pubblica con il Dipartimento della Difesa degli Stati Uniti sull'uso del loro modello di intelligenza artificiale Claude. Il disaccordo verte sulla concessione di un accesso illimitato all'intelligenza artificiale, che potrebbe comportare l'utilizzo del sistema per condurre una sorveglianza nazionale di massa.

Anche Anthropic, lanciata nel 2021, ha negato l'accesso completo a causa di preoccupazioni sull'affidabilità dei sistemi di puntamento basati sull'intelligenza artificiale. Entrambe queste linee rosse sono state definite dall'amministratore delegato dell'azienda, Dario Amodei, citando l'inaffidabilità come preoccupazione principale.

Limiti proposti da Anthropic all'uso dell'intelligenza artificiale militare

In questa parte, il Pentagono sostiene che il contratto da 200 milioni di dollari dovrebbe includere l'accesso illimitato. Anthropic ha fatto alcune concessioni durante il dibattito, tra cui l'autorizzazione all'uso dei sistemi di intelligenza artificiale in ambito missilistico e di difesa. Ha persino affermato di essere favorevole alle operazioni della NSA, purché escludano la sorveglianza di massa dei cittadini statunitensi.

Perché il Pentagono ha respinto le restrizioni di Anthropic

Tuttavia, questo non è bastato ai funzionari del Pentagono. Poco dopo che Anthropic ha negato questa affermazione, l'amministrazione Trump ha vietato l'uso dei suoi prodotti da parte di qualsiasi organizzazione federale. Nello specifico, il presidente ha definito i prodotti Anthropic un "rischio per la sicurezza nazionale". I resoconti sulla controversia hanno anche fatto riferimento al Defense Production Act come potenziale strumento di pressione, sebbene la precisa motivazione giuridica debba essere descritta con attenzione, a meno che non sia citata direttamente dall'ordinanza.

Questa manovra significa che Anthropic non sarà in grado di assicurarsi alcun contratto militare o governativo in futuro, lasciando l'azienda in una situazione precaria in cui dovrà scegliere tra i suoi principi fondamentali e il profitto.

Come OpenAI e xAI hanno risposto al cambiamento del Pentagono

OpenAI, concorrente di Anthropic, è prontamente intervenuta per sostituirla, promettendo il pieno rispetto delle disposizioni del Pentagono. A tal fine, l'azienda ha firmato un accordo riservato con il governo, che include l'uso legale e illimitato del suo sistema di intelligenza artificiale.

Applicazioni militari attuali dell'intelligenza artificiale

Esistono già numerosi esempi di sistemi di intelligenza artificiale che contribuiscono ad aumentare il ritmo e la portata della guerra. Questi sistemi sono ottimizzati per funzionare a stretto contatto con il crescente numero di sistemi autonomi, come la tecnologia dei droni a sciame.

L'intelligenza artificiale è considerata un punto di svolta perché può integrare gli input provenienti da una vasta gamma di sensori per fornire un puntamento più rapido e altro ancora. È fondamentale anche nei settori logistico e finanziario dell'esercito, dove può contribuire a garantire che la manutenzione preventiva e altre attività chiave rispettino i tempi previsti.

L'uso da parte di Israele di sistemi di puntamento basati sull'intelligenza artificiale a Gaza

L'uso di sistemi di puntamento basati sull'intelligenza artificiale è stato evidenziato nella campagna israeliana di Gaza. Queste operazioni hanno sfruttato strumenti come Lavanda per confrontare i movimenti di una persona con potenziali comportamenti militanti.

Questo strumento ha permesso all'esercito israeliano di tracciare e colpire i combattenti di Hamas di basso rango prima di bombardarli nelle loro case. In particolare, secondo il personale militare israeliano, il sistema avrebbe un tasso di errore del 10%. Tuttavia, tale cifra è altamente discutibile.

Il sistema di targeting AI "Gospel" spiegato

Un altro strumento di intelligenza artificiale israeliano soprannominato vangelo è configurato per fornire 100 obiettivi al giorno. Incrocia i movimenti e altri dati per individuare potenziali edifici che potrebbero ospitare combattenti nemici. Questo sistema è spesso utilizzato con il "Dov'è papà? Programma di intelligenza artificiale che consente il monitoraggio autonomo del personale segnalato.

L'intelligenza artificiale nelle forze dell'ordine: rilevamento delle minacce e rischi per la privacy

L'uso dei sistemi di intelligenza artificiale nelle forze dell'ordine è un altro dibattito molto acceso. Molti sono rimasti sorpresi nello scoprire che i sistemi di ChatGPT hanno segnalato L'attentatore di massa di Tumbler Ridge in Canada, Jesse Van Rootselaar, come una potenziale minaccia.

Nello specifico, il sistema di intelligenza artificiale aveva rilevato violazioni delle policy otto mesi prima, in cui l'utente aveva ripetutamente chiesto informazioni sulla violenza armata. La richiesta era stata inviata a diversi revisori umani, il che ha portato al ban dell'account e alla segnalazione dell'utente.

Perché i sistemi di segnalazione dell'intelligenza artificiale spesso non riescono a innescare l'intervento

Nonostante i campanelli d'allarme, l'azienda afferma che l'account non ha superato la soglia di quella che considerano una minaccia attiva. Pertanto, le autorità non sono mai state informate. Se lo fossero state, avrebbero potuto interrogare e salvare otto vite il 10 febbraio 2026.

È interessante notare che i registri interni dell'azienda mostrano che ci fu un dibattito sulla notifica alle autorità in seguito al blocco dell'account. In seguito si è scoperto che l'attentatore aveva aperto un altro account, aggirando il blocco prima degli attacchi.

I funzionari governativi sostengono che fosse responsabilità di OpenAI segnalare alle autorità la chat sospetta e che, se lo avessero fatto, avrebbe potuto contribuire a salvare vite umane. Al contrario, l'azienda ha dichiarato che migliorerà la condivisione dei dati e i tempi di risposta, abbassando le soglie.

La lettera etica sull'intelligenza artificiale "Non saremo divisi"

Il "Lettera "Non saremo divisi"" è un appello aperto ai dipendenti dell'IA affinché si oppongano pubblicamente alle armi completamente autonome e alla sorveglianza di massa e si impegnino a promuovere impegni di sicurezza applicabili in tutto il settore. La lettera esorta gli sviluppatori di IA a non supportare in alcun modo le armi completamente autonome o le operazioni di sorveglianza di massa.

Crea inoltre un elenco di linee guida di sicurezza condivise, progettate per prevenire scenari di IA incontrollabili. Queste linee guida includono elementi come l'inclusione di un essere umano nel processo per la supervisione e l'approvazione di eventuali attività letali. Promuove inoltre la trasparenza per prevenire gli abusi.

L'obiettivo principale della lettera è creare una serie di standard etici che tutte le aziende di intelligenza artificiale possano seguire per evitare che la tecnologia renda la vita un inferno per tutti sul pianeta. La lettera giunge in un momento cruciale nell'adozione dell'intelligenza artificiale, poiché gli eserciti dipendono ormai da questa tecnologia per le operazioni di targeting e raccolta di informazioni.

La posizione delle principali aziende di intelligenza artificiale sull'uso governativo e militare

Esaminando questi due scenari molto diversi, si può osservare come le aziende di intelligenza artificiale continuino a fondere le proprie attività con quelle delle agenzie governative. Questa fusione richiederà un delicato equilibrio tra capacità, garanzie e trasparenza per prevenire abusi. Ecco la posizione attuale di ciascuna azienda sulle attività governative.

Scorri per scorrere

Provider Stance Stato del contratto
Antropico Accesso limitato Uso federale limitato/eliminato gradualmente
Google Supporto aziendale completo Contratti CDAO segnalati (~$200 milioni)
OpenAI Distribuzioni di “uso lecito” (garanzie dichiarate) Segnalati schieramenti di difesa
xAI Segnalata la volontà di “uso lecito” Lavoro governativo segnalato

Antropico

Anthropic ha mantenuto i suoi standard fondamentali, cercando di mantenere rigidi limiti ai casi d'uso di targeting autonomo e sorveglianza di massa. Tuttavia, sembra che stia pagando a caro prezzo la sua bussola morale, poiché le agenzie federali si sono mosse per limitare o eliminare gradualmente l'uso dei suoi modelli in determinati ambienti.

OpenAI

OpenAI è tutta per l'integrazione governativa. L'azienda era ansiosa di guadagnare posizione quando Anthropics ha perso il contratto con il Dipartimento della Difesa a causa della sua insistenza sul nucleo della missione. OpenAI ha accettato di implementare modelli in ambienti di difesa nell'ambito di un quadro di "uso lecito". L'azienda afferma di vietare la sorveglianza di massa a livello nazionale e di richiedere la responsabilità umana per l'uso della forza.

xAI

xAI di Elon Musk è stato un forte sostenitore dell'integrazione dell'IA nella dottrina bellica. I resoconti indicano che xAI ha manifestato la volontà di supportare schieramenti governativi classificati in base a termini di "uso lecito", sebbene i dettagli operativi rimangano limitati.

Google

Google (GOOGL ) ha avuto un intenso dibattito interno riguardo all'uso del suo sistema in ambito bellico. L'azienda ha fatto firmare a oltre 300 dipendenti una lettera aperta che esortava i fornitori di intelligenza artificiale a rifiutare contratti aperti con il Pentagono. Tuttavia, Google ha oltre 200 milioni di dollari in contratti CDAO, il che significa che è sottoposta a forti pressioni per cedere.

Conclusione per gli investitori: La governance dell'IA sta emergendo come un fattore competitivo fondamentale. Le aziende che si allineano ai quadri normativi mantenendo al contempo la capacità di innovazione hanno maggiori probabilità di assicurarsi contratti governativi a lungo termine e fiducia istituzionale. Le aziende esposte a rischi di deepfake o controversie sulla sorveglianza potrebbero dover affrontare difficoltà in termini di reputazione e conformità.

Ultime notizie e prestazioni di GOOGLE (GOOGL)

Il futuro della governance dell'intelligenza artificiale e della stabilità democratica

Esaminando l'integrazione dei sistemi di intelligenza artificiale in ogni ambito, dalle operazioni governative a quelle militari, è facile riconoscere la necessità di alcune misure di sicurezza. Questi sistemi sono diventati incredibilmente potenti sia in termini tecnici che sociali. Si spera che le aziende di intelligenza artificiale si rendano conto dell'importanza della loro divisione e aderiscano agli standard etici prima che sia troppo tardi. Allo stato attuale, sembra che i profitti vinceranno questa gara.

Scopri altri sviluppi dell'intelligenza artificiale Qui..

David Hamilton è un giornalista a tempo pieno e un bitcoinista di lunga data. È specializzato nella scrittura di articoli sulla blockchain. I suoi articoli sono stati pubblicati in numerose pubblicazioni bitcoin tra cui Bitcoinlightning.com

Divulgazione dell'inserzionista: Securities.io si impegna a rispettare rigorosi standard editoriali per fornire ai nostri lettori recensioni e valutazioni accurate. Potremmo ricevere un compenso quando fai clic sui collegamenti ai prodotti che abbiamo esaminato.

ESMA: I CFD sono strumenti complessi e comportano un alto rischio di perdere denaro rapidamente a causa della leva finanziaria. Tra il 74% e l'89% dei conti degli investitori al dettaglio perde denaro quando fa trading di CFD. Dovresti considerare se comprendi come funzionano i CFD e se puoi permetterti di correre il rischio elevato di perdere i tuoi soldi.

Dichiarazione di non responsabilità per la consulenza sugli investimenti: Le informazioni contenute in questo sito Web sono fornite a scopo didattico e non costituiscono un consiglio di investimento.

Esclusione di responsabilità sui rischi commerciali: La negoziazione di titoli comporta un livello di rischio molto elevato. Trading su qualsiasi tipo di prodotto finanziario inclusi forex, CFD, azioni e criptovalute.

Questo rischio è maggiore con le criptovalute perché i mercati sono decentralizzati e non regolamentati. Dovresti essere consapevole che potresti perdere una parte significativa del tuo portafoglio.

Securities.io non è un broker registrato, un analista o un consulente per gli investimenti.