Un rapporto delle Nazioni Unite punta il dito contro l'uso dell'intelligenza artificiale nel marketing. Non è solo una questione di pubblicità ingannevole. È qualcosa di più profondo e di più difficile da correggere.
C'è una scena che molti esperti di marketing digitale conoscono bene: un brand lancia una campagna costruita interamente dall'intelligenza artificiale - testi, immagini, testimonianze di clienti, persino le recensioni sui social. Tutto impeccabile. Tutto falso. Il prodotto esiste, ma quella versione di lui - quella storia, quelle facce sorridenti, quelle promesse - non è mai esistita davvero. Eppure funziona. E questo, secondo un documento circolato tra i funzionari dell'ONU nei mesi scorsi, è esattamente il problema.
L'Organizzazione delle Nazioni Unite non ha usato mezzi termini. Il rapporto, preparato da un gruppo di lavoro che include esperti di etica digitale, diritti dei consumatori e sicurezza dell'informazione, descrive un fenomeno in rapida espansione: l'uso sistematico dell'IA generativa per costruire narrazioni di marketing che erodono la capacità delle persone di distinguere il vero dal verosimile. Non si tratta solo di deepfake o di video manipolati. Si tratta di una trasformazione strutturale del modo in cui il consenso viene fabbricato.
"Non siamo di fronte a singoli episodi di pubblicità ingannevole. Siamo di fronte a un'infrastruttura industriale per la produzione di fiducia artificiale."
Vale la pena fermarsi un momento su questa distinzione, perché è meno ovvia di quanto sembri. Il marketing ha sempre lavorato sull'emozione, sulla semplificazione, sulla promessa. Nessuno si è mai aspettato che una réclame fosse un documento notarile. Ma c'è una differenza tra esagerare i benefici di uno shampoo e costruire identità false, creare community di utenti inesistenti, simulare conversazioni autentiche che in realtà sono output di modelli linguistici. La prima è ipocrisia tollerata. La seconda è qualcosa che cambia le regole del gioco.
I numeri
Qualche dato per orientarsi. Secondo le stime citate nel rapporto ONU, oltre il 60% dei contenuti pubblicitari sui principali social media viene già generato o ottimizzato con strumenti di IA. Le recensioni false, che esistevano già prima dell'avvento dei modelli generativi, sono aumentate di un fattore stimato tra cinque e dieci volte nell'ultimo triennio. E la capacità degli utenti medi di riconoscere un testo scritto da una macchina si è ridotta drasticamente: nei test condotti da alcuni istituti di ricerca europei, meno di un terzo dei partecipanti è in grado di distinguere una recensione autentica da una generata artificialmente.
Questi numeri vanno presi con la dovuta cautela - le metodologie variano, e il campo è in continua evoluzione. Ma la direzione è chiara, e preoccupante.
Cosa vuole l'ONU
Le raccomandazioni del gruppo di lavoro ONU si muovono su tre livelli. Il primo è normativo: chiedono agli stati membri di estendere le leggi sulla pubblicità ingannevole ai contenuti generati da IA, con obblighi espliciti di trasparenza - etichettatura, tracciabilità, dichiarazione d'uso degli strumenti automatizzati. Il secondo livello è tecnico: invitano le piattaforme a sviluppare sistemi di rilevamento e segnalazione dei contenuti sintetici. Il terzo, forse il più ambizioso, riguarda l'educazione: propongono l'inserimento della "alfabetizzazione algoritmica" nei programmi scolastici di base.
Nulla di tutto questo è vincolante. L'ONU non ha poteri legislativi diretti, e la velocità con cui la tecnologia evolve rende qualsiasi norma parzialmente obsoleta nel momento stesso in cui viene scritta. Gli esperti più scettici fanno notare che regolamentare l'IA nel marketing è un po' come cercare di regolamentare il vento: puoi misurarlo, puoi costruire frangivento, ma non puoi fermarlo.
"Il problema non è la tecnologia. Il problema è che abbiamo costruito sistemi economici in cui ingannare è più conveniente che essere onesti."
Il paradosso della trasparenza
C'è un paradosso al centro di questa discussione che il rapporto ONU riconosce ma non risolve del tutto. La trasparenza - sapere che un contenuto è stato generato da un'IA - non basta. Alcune ricerche suggeriscono che quando le persone sanno che stanno leggendo testo prodotto da una macchina, la loro diffidenza aumenta, certo. Ma aumenta anche la loro fascinazione. L'IA diventa una sorta di certificazione di modernità, non necessariamente un segnale d'allarme.
Questo significa che etichettare i contenuti sintetici potrebbe non risolvere il problema alla radice. Potrebbe persino diventare uno strumento di marketing in sé: "Sì, è generato dall'IA - ma guarda quanto è preciso, quanto è personalizzato, quanto è su misura per te."
Chi paga il conto
La domanda che rimane aperta, e che il rapporto affronta solo di striscio, è: chi subisce davvero il danno? I consumatori ingannati da prodotti che non corrispondono alle loro aspettative, certamente. Ma anche i brand che competono onestamente e che si trovano svantaggiati rispetto a chi usa l'IA per gonfiare la propria reputazione digitale. E in modo più diffuso, difficile da quantificare ma reale, tutti coloro che navigano in un ecosistema informativo in cui la fiducia si è rarefatta.
Gli economisti hanno un termine per questo tipo di fenomeno: erosione del capitale sociale. Quando le persone smettono di fidarsi delle informazioni che ricevono - dai brand, dai media, dagli altri utenti - il costo non è solo personale. È sistemico. Le decisioni peggiorano. I mercati funzionano meno bene. La democrazia, che dipende da un'informazione ragionevolmente affidabile, si inceppa.
Cosa accade ora
Nei prossimi mesi, alcune delle proposte contenute nel rapporto ONU verranno discusse in sede europea - dove il quadro normativo sull'IA è già più avanzato che altrove - e portate all'attenzione di alcuni governi del G7. Non è detto che ne esca qualcosa di concreto a breve. La storia della regolamentazione di internet è piena di buone intenzioni e di esiti parziali.
Ma qualcosa sta cambiando nel modo in cui il problema viene percepito. Fino a poco tempo fa, il dibattito sull'IA nel marketing era confinato alle newsletter specializzate e alle conferenze di settore. Adesso è sul tavolo dell'ONU. Questo, almeno, è un segnale che vale la pena notare.
Anche se, naturalmente, potrebbe trattarsi di una notizia generata da un algoritmo.