mozzicone L'intelligenza artificiale sta rimodellando i social media e la fiducia online – Securities.io
Seguici sui social

Intelligenza Artificiale

L'intelligenza artificiale sta rimodellando i social media e la fiducia online

mm

I contenuti di intelligenza artificiale sono ovunque, soppiantando i contenuti umani autentici e trasformando completamente il panorama dei social media. La loro influenza si è ormai estesa oltre le piattaforme, influenzando l'arena politica, Internet in senso lato e persino l'economia globale.

Quindi, questo significa che i social media si stanno avvicinando alla morte? Scopriamolo insieme.
Sommario:
I contenuti generati dall'intelligenza artificiale stanno rimodellando i social media inondando le piattaforme di contenuti sintetici, erodendo la fiducia e spostando le interazioni umane significative in spazi privati ​​e verificabili.

Dalla connessione umana ai mangimi sintetici

Dalla connessione umana ai mangimi sintetici

Sono passati circa quarant'anni da quando sono emerse le prime forme di interazione sociale online, a partire dai sistemi di bacheche elettroniche (BBS), da Usenet e dai primi forum tra la fine degli anni '1970 e gli anni '1980. Tuttavia, le prime piattaforme di social network riconoscibili sono apparse solo tra la metà e la fine degli anni '1990, gettando le basi per quelli che sarebbero poi diventati i moderni social media.

L'inizio del XXI secolo ha segnato la diffusione dei social media con siti come Friendster, MySpace e Facebook. Questa era moderna dei social media ha permesso una connessione globale istantanea, consentendo alle persone di mantenere relazioni, accedere a notizie in tempo reale e costruire comunità basate su interessi comuni.

Ma ora, solo un paio di decenni dopo, il volto dei social media sta cambiando con la proliferazione di Contenuto di intelligenza artificiale.

Tradizionalmente, i valori fondamentali di Social Media Sono sempre stati connessione ed espressione, ma sono stati sostituiti dalla produzione di massa automatizzata. Con i feed delle persone dominati dal rumore sintetico, il disimpegno e la sfiducia tra le masse stanno crescendo rapidamente.

Secondo il dirigente di Instagram, una griglia curata con cura è ormai un ricordo del passato.

In un messaggio su Threads, il responsabile di Instagram Adam Mosseri ha avvertito che l'ascesa dell'intelligenza artificiale ha annientato l'estetica raffinata del social media. Tutto quel trucco, la levigatura della pelle, i paesaggi meravigliosi e le fotografie ad alto contrasto sono ormai "morti", poiché "le persone hanno in gran parte smesso di condividere momenti personali per nutrirsi anni fa", ha affermato.

Invece, vengono condivise tramite messaggi diretti foto spontanee e poco lusinghiere.

La pervasività delle immagini ottenute tramite intelligenza artificiale implica che i creatori debbano abbandonare le griglie curate e la fotografia in stile professionale per adottare un'“estetica più grezza”, con le persone che desiderano “contenuti che sembrino reali” piuttosto che immagini lusinghiere, che sono “economiche da produrre e noiose da consumare”.

Presto assisteremo alla maturazione degli strumenti di intelligenza artificiale e, di conseguenza, all'espansione della gamma di estetiche che possono produrre, ha affermato Mosseri, sottolineando che i feed dei social media stanno già iniziando a riempirsi di "tutto sintetico", il che significa che le piattaforme devono evolversi per gestire il flusso di contenuti generati dall'intelligenza artificiale.

Nel frattempo, il co-fondatore e CEO di Substack, Chris Best, ha affermato alla fine dell'anno scorso che la "slop" generata dall'intelligenza artificiale potrebbe inondare Internet, il che "costringe le persone stupide a cliccare".

"Slop" è stato scelto come parola dell'anno per il 2025 dal dizionario statunitense Merriam-Webster, che lo definisce come “contenuto digitale di bassa qualità prodotto, solitamente in quantità, tramite intelligenza artificiale”.

L'ascesa di Internet dei bot

Scorri per scorrere →

Signal Contenuto umano Contenuti generati dall'intelligenza artificiale
Costo di produzione Alto (tempo, sforzo) Costo marginale prossimo allo zero
Frequenza di pubblicazione Irregolare Ad alto volume, automatizzato
Contesto emotivo Esperienza situazionale e vissuta Simulato o generico
Segnale di fiducia Identità, storia, relazioni Etichette, metadati, divulgazione
Longevità del fidanzamento Volume più basso, significato più alto Alto volume, decadimento rapido

I dati mostrano che quasi un terzo di tutto il traffico internet deriva dai bot, programmi software automatizzati che imitano il comportamento umano.

Ciò ha dato origine alla teoria dell'Internet morta, secondo la quale Internet è costituito principalmente da attività di bot e contenuti generati algoritmicamente, progettati per controllare la popolazione globale.

Reddit (RDDT ) Il cofondatore Alexis Ohanian ritiene che ci sia del vero in questa idea, e che da essa emergerà una nuova era dei social media. "Avere prove concrete, come spettatori e contenuti in diretta, è davvero prezioso per catturare l'attenzione", ha affermato in un podcast.

Il fondatore e CEO di OpenAI, Sam Altman, ha espresso un'opinione simile su X lo scorso anno, scrivendo:

"Non ho mai preso sul serio la teoria della morte di Internet, ma sembra che ora ci siano davvero molti account Twitter gestiti da LLM."

L'attività dei bot su X (precedentemente noto come Twitter) sta effettivamente peggiorando. Si stima che circa Il 10% degli account X sono bot, che totalizzano milioni di utenti.

Nel frattempo, oltre il 20% dei video che l'algoritmo di YouTube mostra ai nuovi utenti sono stati essere trovato essere "scarti di intelligenza artificiale".

Infatti, tra i 15,000 canali YouTube più popolari esaminati, 278 contengono solo Contenuti generati dall'intelligenza artificialee insieme hanno accumulato 221 milioni di iscritti e più di 63 miliardi di visualizzazioni, generando circa 117 milioni di dollari di entrate ogni anno.

Questo non si limita a una o a una manciata di piattaforme, ma riguarda l'intera Internet.

Come ha osservato l'Imperva Bad Bot Report del 2025, il traffico automatizzato ha superato il traffico umano, rappresentando il 51% di tutto il traffico internet, di cui il 20% proveniente da “bot dannosi” impegnati in attività dannose.

Qualche mese fa, Marshall Miller, direttore senior dei prodotti presso la Wikimedia Foundation, l'organizzazione no-profit che gestisce Wikipedia, ha anche notato che il traffico umano sul sito web è diminuito di circa l'8%, poiché le persone hanno cambiato il modo in cui cercano informazioni online.

Il calo è stato rilevato dopo che la Fondazione ha modificato il modo in cui distingue il traffico umano da quello dei bot per comprendere meglio i lettori reali e limitare i bot di terze parti che estraggono i suoi dati per scopi di ricerca commerciale e strumenti di intelligenza artificiale.

"Riteniamo che questi cali riflettano l'impatto dell'intelligenza artificiale generativa e dei social media sul modo in cui le persone cercano informazioni, soprattutto con i motori di ricerca che forniscono risposte direttamente a chi effettua le ricerche, spesso basate sui contenuti di Wikipedia", ha scritto Miller, aggiungendo che questo non è stato poi così sorprendente, poiché i motori di ricerca utilizzano sempre più l'intelligenza artificiale per avere risposte direttamente sulle pagine dei risultati e gli utenti più giovani si rivolgono a TikTok e YouTube.

Ma questo significa che la comunità che scrive e modifica i contenuti di Wikipedia potrebbe ridursi. Per questo motivo, la piattaforma sta sollecitando motori di ricerca, piattaforme social, LLM e chatbot basati sull'intelligenza artificiale a contribuire a riportare più traffico sul sito.

Come le piattaforme dei social media stanno amplificando i contenuti dell'intelligenza artificiale

Le piattaforme dei social media sono state inondate di contenuti generati dall'intelligenza artificiale grazie alla crescita esponenziale dell'ecosistema degli strumenti generativi.

Ad esempio, strumenti come Sora, Midjourney, Pika, Runway e Stable Diffusion hanno reso estremamente semplice la creazione di immagini e video di quasi tutto.

Un numero crescente di soluzioni semplifica ulteriormente l'aumento delle visualizzazioni e la monetizzazione dei programmi di ricompensa per i creatori o dei link di affiliazione. Non solo generano automaticamente i contenuti, ma li pubblicano direttamente su piattaforme come YouTube, a pagamento, realizzando più di 100 video al mese con un singolo account. Queste soluzioni mirano ad automatizzare l'intero processo di creazione di contenuti.

Ma non è tutto. I ricercatori hanno essere trovato che le piattaforme hanno effettivamente potenziato i post generati dall'intelligenza artificiale. Piattaforme come TikTok, Instagram e Meta (META ) offrono persino funzionalità di intelligenza artificiale native che consentono agli utenti di generare immagini, script o remixare contenuti multimediali esistenti senza software esterni.

Meta, in particolare, ha accolto con entusiasmo i contenuti generati dall'intelligenza artificiale, arrivando persino a creare contenuti di sua proprietà. Nel 2023, l'azienda ha introdotto profili basati sull'intelligenza artificiale e ha annunciato l'intenzione di popolare la sua piattaforma con personaggi basati sull'intelligenza artificiale. Ma dopo aver ricevuto forti critiche da parte degli utenti, l'anno scorso Meta ha eliminato i profili basati sull'intelligenza artificiale.

Nel frattempo, Instagram ha lanciato uno studio di intelligenza artificiale che consente agli utenti di creare chatbot personalizzati, comprese le proprie versioni digitali.

Di recente, TikTok ha rivelato che sulla sua piattaforma ci sono almeno 1.3 miliardi di post generati dall'intelligenza artificiale, con oltre 100 milioni di contenuti caricati ogni giorno. Per trasparenza, TikTok etichetta i contenuti generati dall'intelligenza artificiale e offre persino agli utenti la possibilità di ridurre la quantità di contenuti generati dall'intelligenza artificiale visualizzati.

Ma AI Forensics, un'organizzazione no-profit con sede a Parigi, ha scoperto che meno del 2% degli account aveva l'etichetta TikTok per i contenuti basati sull'intelligenza artificiale. A volte, sfuggono anche alla moderazione della piattaforma per mesi, nonostante pubblichino contenuti vietati dai termini di servizio di TikTok.

Secondo il rapporto, oltre 350 account incentrati sull'intelligenza artificiale hanno pubblicato 43,000 post realizzati con l'ausilio di strumenti di intelligenza artificiale di generazione, accumulando 4.5 miliardi di visualizzazioni nell'arco di un mese. I ricercatori hanno affermato:

"La linea di demarcazione sempre più sfumata tra contenuti autentici generati da esseri umani e contenuti sintetici generati dall'intelligenza artificiale sulla piattaforma sta segnalando una nuova svolta verso una maggiore presenza di contenuti generati dall'intelligenza artificiale nei feed degli utenti."

L'autenticità può sopravvivere all'automazione?

Un tempo brulicanti di attività reali, dove gli amici si riunivano e condividevano momenti speciali, i social network stanno ora diventando città fantasma, popolate da entità artificiali che simulano l'interazione umana e pubblicano contenuti generati dall'intelligenza artificiale.

Anche se potresti pensare di poter semplicemente bloccare quegli utenti e quei contenuti, un studio trovato1 che le persone non riescono a distinguere l'intelligenza artificiale da un essere umano, anche quando hanno familiarità con la materia del LLM.

Lo studio ha valutato il successo degli esseri umani rilevare i contenuti generati dall'intelligenza artificiale e hanno scoperto che il testo umano veniva riconosciuto correttamente come tale solo nel 67% dei casi, mentre il testo GPT-4 veniva rilevato erroneamente come testo umano nel 54% dei casi.

Secondo Mosseri di Instagram, le piattaforme social peggioreranno nel tempo nell'identificare i contenuti multimediali generati dall'intelligenza artificiale, con il miglioramento della tecnologia. Una soluzione potrebbe essere quella di consentire alle aziende produttrici di fotocamere di firmare crittograficamente le foto al momento dello scatto, per dimostrarne l'autenticità.

La soluzione per mitigare il potere dei bot, secondo Ohanian, è vedere "emergere una nuova generazione di social media che sia verificabilmente umana".

Sebbene i progressi tecnologici abbiano ottimizzato gran parte di Internet per l'interazione, che Best ha paragonato alla "tossicodipendenza" e ritiene che "diventerà sovralimentata", continua a sperare in un futuro alternativo.

"L'altro scopo dei media è la cultura", ha aggiunto, "è qualcosa che le persone desiderano davvero, davvero".

Secondo Best di Substack, questa stessa tecnologia ha il potenziale per aprire la strada a un "futuro in cui ci sarà molta più leva creativa" per i creatori indipendenti. Il vero collo di bottiglia per i media, ha osservato, non sono i contenuti, di cui "non c'è scarsità", ma l'attenzione. "Siamo entrati in un mondo in cui l'attenzione è la risorsa scarsa", ha affermato.

"Abbiamo vinto la guerra contro la noia", ha affermato Best, aggiungendo che "c'è un'enorme scarsità di buoni contenuti".

In questo contesto, Wikimedia Deutschland ha lanciato il Wikidata Embedding Project, che ha convertito circa 120 milioni di punti dati aperti in Wikidata in un formato più facile da usare per gli LLM, aiutando i sistemi di intelligenza artificiale ad accedere gratuitamente a dati di qualità superiore e a migliorarne l'accuratezza.

Regolamentazione, ricerca e lotta per la fiducia

Con l'avvento dell'intelligenza artificiale su Internet, i ricercatori hanno iniziato a comprenderne l'impatto. Uno di questi studi, intitolato L'impatto dell'intelligenza artificiale generativa sui social media: uno studio sperimentale2 ha esaminato il modo in cui l'assistenza dell'intelligenza artificiale influisce sulla produzione di contenuti e sulle percezioni degli utenti e ha scoperto che gli strumenti di intelligenza artificiale sono utili per aumentare il volume e il coinvolgimento dei contenuti, ma ne riducono la qualità e l'autenticità percepite.

Sulla base delle loro scoperte, hanno raccomandato che le piattaforme dei social media, i responsabili politici e le parti interessate progettino strumenti con una personalizzazione incentrata sull'utente, incorporando la sensibilità al contesto e dando priorità alle interfacce utente intuitive per un'integrazione etica ed efficace dell'intelligenza artificiale di generazione nei social media.

I ricercatori hanno anche raccomandato di garantire una divulgazione trasparente dei contenuti generati dall'intelligenza artificiale, come altri studi3 avere essere trovato4 che ciò aumenta la fiducia senza danneggiare il coinvolgimento.

Per quanto riguarda le normative, i governi di tutto il mondo hanno adottato misure per promuovere e regolamentare l'uso responsabile dell'intelligenza artificiale.

Nell'Unione Europea (UE), l' Legge sull'IA si concentra sulla trasparenza, sulla classificazione dei rischi e sugli obblighi per i sistemi ad alto rischio.

Nel frattempo, l’Online Safety Act (OSA) ha conferito all’ente regolatore delle comunicazioni Ofcom ampia autorità per richiedere alle piattaforme di gestire contenuti dannosi o fuorvianti nel Regno Unito, sebbene i responsabili politici abbiano ha chiesto un aggiornamento per contrastare in modo più efficace la disinformazione basata sull'intelligenza artificiale.

Negli Stati Uniti, il presidente Donald Trump ha ha emesso un ordine esecutivo per rimuovere gli ostacoli alla leadership americana nell'intelligenza artificiale e ha pubblicato un piano d'azione per garantire il suo predominio nel settore. D'altra parte, il mese scorso, ha ordinato uno standard nazionale che consente alle aziende di intelligenza artificiale di innovare senza normative complesse.

Nel frattempo, il quadro normativo cinese è stato uno dei più dettagliati al mondo nella regolamentazione della creazione e distribuzione di contenuti di intelligenza artificiale. La sua Cyberspace Administration ha implementato etichettatura obbligatoria per i contenuti generati dall'intelligenza artificiale, che richiede disclaimer visibili e metadati incorporati per evitare disinformazione e frodi.

Alcuni governi stanno inoltre sollecitando indagini sulle piattaforme per disinformazione generata dall'intelligenza artificiale. Più di recente, la Polonia ha esortato la Commissione Europea a indagare su TikTok per aver ospitato contenuti di intelligenza artificiale ritenuti destabilizzanti.

"I contenuti divulgati rappresentano una minaccia per l'ordine pubblico, la sicurezza informatica e l'integrità dei processi democratici in Polonia e in tutta l'Unione Europea", ha affermato il Vice Ministro per la Digitalizzazione Dariusz Standerski in una lettera inviata alla Commissione. "La natura delle narrazioni, il modo in cui vengono distribuite e l'uso di materiali audiovisivi sintetici indicano che la piattaforma non sta rispettando gli obblighi imposti", ha aggiunto.

Per ora, il panorama politico dell'intelligenza artificiale rimane una questione emergente a livello mondiale, frammentata tra le varie giurisdizioni e che fatica a tenere il passo con la velocità con cui i sistemi generativi stanno rimodellando i flussi di informazioni, la fiducia del pubblico e il discorso democratico.

Investire nelle infrastrutture di intelligenza artificiale

Nel mondo dell'intelligenza artificiale, Palantir Technologies Inc. (PLTR ) si distingue per la sua specializzazione nell'analisi dei big data basata sull'intelligenza artificiale.

Ha sviluppato quattro piattaforme software principali, tra cui Apollo, Gotham, Foundry e Artificial Intelligence Platform (AIP). Apollo è un livello di controllo che armonizza la distribuzione di nuove funzionalità, configurazioni e aggiornamenti di sicurezza per garantire il funzionamento continuo dei sistemi critici. Gotham aiuta a identificare pattern all'interno dei set di dati e Foundry aiuta le organizzazioni a creare un sistema operativo centrale per i propri dati. AIP consente l'attivazione efficace di modelli linguistici di grandi dimensioni e altre intelligenze artificiali all'interno di qualsiasi organizzazione.

In particolare, le piattaforme di Palantir sono utilizzate da governi e aziende private per rilevare disinformazione, reti di bot e distribuzione di media sintetici. Questi strumenti sono progettati per identificare comportamenti autentici e non autentici in ecosistemi informativi complessi.

Inoltre, l'analisi basata sull'intelligenza artificiale è sempre più utilizzata da organizzazioni e governi per monitorare le minacce alla salute e alla sicurezza. Con una capitalizzazione di mercato di 400 miliardi di dollari, le azioni di PLTR sono attualmente scambiate a 174 dollari, in rialzo di oltre il 110% nell'ultimo anno. Ha un utile per azione (TTM) di 0.43 e un rapporto prezzo/utili (TTM) di 392.56.

Per quanto riguarda la sua posizione finanziaria, Palantir ha annunciato un fatturato di 1.181 miliardi di dollari per il terzo trimestre conclusosi il 30 settembre 2025, con una crescita del 63% su base annua e del 18% su base trimestrale, raggiungendo un nuovo record di fatturato nella sua storia ultraventennale. L'utile del trimestre è stato di 476 milioni di dollari.

"Siamo ancora all'inizio. Questo rimane l'inizio, il primo momento del primo capitolo."

– Il co-fondatore e CEO Alex C. Karp, in un lettera agli azionisti

In particolare, il fatturato statunitense è cresciuto del 77% su base annua e del 20% su base trimestrale, raggiungendo gli 883 milioni di dollari. Questo include 486 milioni di dollari di entrate governative statunitensi, in aumento del 52% su base annua e del 14% su base trimestrale, e 397 milioni di dollari di ricavi commerciali statunitensi, in crescita del 121% su base annua e del 29% su base trimestrale. Karp ha definito il segmento commerciale statunitense "un vero e proprio colosso" che, a suo avviso, "diventerà, da solo, una delle storie aziendali più significative del secolo nella vita economica americana".

Durante questo periodo, il numero di clienti di Palantir è cresciuto del 45% su base annua. Nel frattempo, il flusso di cassa libero rettificato è stato di 540 milioni di dollari, l'utile per azione GAAP è stato di 0.18 dollari e l'utile per azione rettificato di 0.21 dollari. Palantir ha chiuso il trimestre con 6.4 miliardi di dollari in liquidità, mezzi equivalenti e titoli del Tesoro USA a breve termine.

"Questi risultati rendono innegabile l'impatto trasformativo dell'utilizzo dell'AIP per potenziare la leva dell'intelligenza artificiale", ha osservato l'azienda.

Per il quarto trimestre del 2025, Palantir prevede un fatturato compreso tra 1.327 e 1.331 miliardi di dollari e un utile operativo rettificato compreso tra 695 e 699 milioni di dollari.

Per quanto riguarda l'intero anno 2025, Palantir ha alzato la sua guidance di fatturato a 4.396-4.400 miliardi di dollari e prevede una crescita di almeno il 104% del fatturato commerciale negli Stati Uniti, superando 1.433 miliardi di dollari. Nel frattempo, la guidance sull'utile operativo rettificato è stata aumentata a 2.151-2.155 miliardi di dollari e la guidance sul flusso di cassa libero rettificato a 1.9-2.1 miliardi di dollari.
Conclusione per gli investitori:
Poiché i contenuti basati sull'intelligenza artificiale crescono più rapidamente dell'attenzione umana, cresce la domanda di infrastrutture che governino autenticità, moderazione e fiducia, creando opportunità a lungo termine che vanno oltre le piattaforme social dei consumatori.

Ultime notizie sulle azioni di Palantir Technologies Inc. (PLTR)

Conclusione

I social media, così come li conosciamo, stanno chiaramente giungendo al termine. Non sono più il luogo in cui le persone condividevano attivamente interessi, ricordi e idee in modo autentico. Ciò che un tempo si basava sulla connessione umana è ora invaso da contenuti automatizzati e bot.

Sebbene l'intelligenza artificiale abbia sbloccato una leva creativa e un'efficienza economica senza precedenti, ha anche eroso proprio i segnali che un tempo rendevano significativa l'interazione online.

Il futuro dei social media probabilmente si dividerà, con una strada che porterà verso feed iper-automatizzati ottimizzati per l'interazione e l'altra che punterà verso spazi verificabilmente umani che daranno priorità alla cultura, alla credibilità e al contesto rispetto alla portata.

Referenze

1. Jones, CR e Bergen, BK “Le persone non riescono a distinguere GPT-4 da un essere umano in un test di Turing”. Preprint arXiv arXiv:2405.08007 (2024). https://doi.org/10.48550/arXiv.2405.08007
2. Møller, AG, Romero, DM, Jurgens, D. e Aiello, LM “L'impatto dell'intelligenza artificiale generativa sui social media: uno studio sperimentale”. Preprint arXiv arXiv:2506.14295 (2025). https://doi.org/10.48550/arXiv.2506.14295
3. Gamage, D., Sewwandi, D., Zhang, M. e Bandara, A. “Etichettatura dei contenuti sintetici: percezioni degli utenti sui progetti di etichette di avvertenza per contenuti generati dall'intelligenza artificiale sui social media”. Preprint arXiv arXiv:2503.05711 (2025). https://doi.org/10.48550/arXiv.2503.05711
4. Chen, J., Wang, T., Williams, M., Jordan, N., Shao, M., Zhang, L. e Fussell, SR “Esame dell'impatto dei dettagli delle etichette e delle puntate sui contenuti sulle percezioni degli utenti di immagini generate dall'intelligenza artificiale sui social media”. Preprint arXiv arXiv:2510.19024 (2025). https://doi.org/10.48550/arXiv.2510.19024

Gaurav ha iniziato a scambiare criptovalute nel 2017 e da allora si è innamorato dello spazio crittografico. Il suo interesse per tutto ciò che riguarda le criptovalute lo ha trasformato in uno scrittore specializzato in criptovalute e blockchain. Ben presto si ritrovò a lavorare con società crittografiche e media. È anche un grande fan di Batman.

Divulgazione dell'inserzionista: Securities.io si impegna a rispettare rigorosi standard editoriali per fornire ai nostri lettori recensioni e valutazioni accurate. Potremmo ricevere un compenso quando fai clic sui collegamenti ai prodotti che abbiamo esaminato.

ESMA: I CFD sono strumenti complessi e comportano un alto rischio di perdere denaro rapidamente a causa della leva finanziaria. Tra il 74% e l'89% dei conti degli investitori al dettaglio perde denaro quando fa trading di CFD. Dovresti considerare se comprendi come funzionano i CFD e se puoi permetterti di correre il rischio elevato di perdere i tuoi soldi.

Dichiarazione di non responsabilità per la consulenza sugli investimenti: Le informazioni contenute in questo sito Web sono fornite a scopo didattico e non costituiscono un consiglio di investimento.

Esclusione di responsabilità sui rischi commerciali: La negoziazione di titoli comporta un livello di rischio molto elevato. Trading su qualsiasi tipo di prodotto finanziario inclusi forex, CFD, azioni e criptovalute.

Questo rischio è maggiore con le criptovalute perché i mercati sono decentralizzati e non regolamentati. Dovresti essere consapevole che potresti perdere una parte significativa del tuo portafoglio.

Securities.io non è un broker registrato, un analista o un consulente per gli investimenti.