Vai al contenuto
CHRONOPOLIS
  • CRONACA
  • CUCINA
  • CURIOSITÀ
  • EDITORIALE
  • EROTISMO
  • GEOPOLITICA
  • INTELLIGENCE
  • TURISMO

Deepfake, il lato oscuro dell’Intelligenza artificiale

4 Giugno, 2021

L’alterazione dello spazio/tempo è stato il primo passo, ora è la volta dell’alterazione del criterio di verità e della manipolazione della realtà

La storia del pensiero e della filosofia, che ne è indubbiamente la più alta espressione, ruota da sempre intorno a una relazione fondamentale: il rapporto fra Soggetto e Oggetto. Il Soggetto è in grado di conoscere effettivamente l’Oggetto? A questa domanda cruciale, su cui si fonda la gnoseologia, hanno tentato di rispondere schiere di filosofi e di epistemologi. La risposta è incerta: Sì, No, Ni. Le scuole di pensiero si sono divise. Per alcuni – i solipsisti capeggiati dal reverendo Berkeley –  il soggetto non conosce veramente l’oggetto, ma soltanto le proprie sensazioni/percezioni. Del resto, lo stesso Kant distingueva il Numeno, inconoscibile, dal Fenomeno, percepibile. Per altri, come i positivisti, il soggetto è in grado effettivamente di conoscere e padroneggiare l’oggetto attraverso la scienza. Forse, c’è una terza via. Probabilmente, è possibile soltanto una conoscenza parziale e limitata dell’oggetto, mai integrale, in un divenire per approssimazione per difetto senza fine. Ciò perchè l’oggetto – per dirla con Baudrillard – pone in essere strategie efficaci di sottrazione al controllo/dominio esercitato dal soggetto.

Un aspetto, tuttavia, metteva d’accordo un po’ tutti: il principio di realtà. “Ciò che è reale è razionale”, proclamava Hegel. Questa affermazione, prima ancora di definire la razionalità, si porta appresso, però, un’altra domanda: cos’è reale? Difficile rispondere, soprattutto in questa epoca, segnata dall’avvento dell’ICT, della cibernetica e dell’Intelligenza artificiale. Tecnologie sempre più sofisticate che hanno alterato la dimensione spazio/temporale, creando il “tempo reale”, ossia la possibilità d’interagire anche a migliaia di chilometri di distanza come se si stesse nello stesso luogo, anzi a pochi centimetri di distanza. Poi, c’è stato un ulteriore salto di qualità nella manipolazione della realtà a opera, proprio, dell’intelligenza artificiale: l’invenzione del “deep fake”. Niente a che vedere con il “falsificazionismo” popperiano, che si propone di falsificare per verificare. Al contrario, l’obiettivo del deep fake è usare il verosimile per accreditare la falsità.

Fenomeno recentissimo quello del deepfake, così recente che prima di sapere cosa fosse, già ne siamo stati probabilmente colpiti. Vi è capitato di visionare video di attori, politici, personaggi famosi che fanno o dicono cose incredibili? Avete visto Obama dire le parolacce peggiori o rapper cantare Shakespeare? Il Papa parlare di sesso? Allora, siete caduti nella trappola del deep fake, una tecnologia che utilizza una forma d’intelligenza artificiale denominata deep learning per creare video di eventi falsi. La maggior parte di questi filmati ha carattere pornografico – recentemente il garante sulla Privacy è intervenuto su un app che spoglia nude minorenni –  ma c’è anche una grossa parte dedicata ai politici e alle loro dichiarazioni rigorosamente false. I falsi, possono anche essere solamente audio. Il deep fake non è solo un  modo escogitato da truffatori o produttori di cinema porno, sta diventando invece una prassi diffusa e consolidata. Infatti, anche i Governi, tramite gli apparati d’intelligence, stanno iniziando a usarlo, ad esempio per far circolare falsi video di organizzazioni terroristiche, che reclutano in Rete,  per screditarne vertici e messaggi. Ma il rischio più insidioso è un atro: la creazione di società  zero-trust, nelle quali le persone dubitino di tutto, persino di quello che vedono con i propri occhi e della propria facoltà cognitiva. La distinzione fra reale e irreale si scolora e si appanna, così. Di conseguenza, decade l’interesse a scoprire se una cosa sia vera o falsa per il solo fatto che possa essere manipolata e rappresentata come verosimile. Basti pensare agli effetti del deepfake sulle intercettazioni audio ambientali, che diventerebbero praticamente inutilizzabili. Si creerebbe un realtà plausibile, ma la cui veridicità rimarrebbe sempre dubbia. Vero e plausibile si confonderebbero del tutto, dunque, determinando disorientamento nelle persone e perdita di fiducia nelle istituzioni. In altre parole, il Soggetto non sarebbe più in grado di distinguere le proprie percezioni/sensazioni dalle cose effettivamente reali, ossia dall’Oggetto esterno alla propria mente. Le funzioni cognitive, pertanto, ne risulterebbero compromesse. Che ne sarebbe, ad esempio, dell’opinione pubblica? Già interpolata e plasmata dal sistema dei media, diverrebbe totalmente schizofrenica. A cascata, quale destino toccherebbe alla volontà e alla sovranità popolari, ossia alla democrazia?

I computer ci hanno permesso di snellire il lavoro, migliorando il modo di produrre e sfruttando al meglio le nostre abilità. Il possibile scenario offerto oggi dall’intelligenza artificiale ci sembra più che mai tendenzialmente illimitato. Se da un lato persiste un profondo desiderio di progresso, non manca il timore che tutta questa tecnologia possa sfuggire dalle nostre mani. Potrebbe accadere con il fenomeno deepfake, ovvero la tecnica che combina un’immagine reale a un video preesistente con un effetto profondamente realistico capace anche di alterare la realtà a livello politico. Come costruire un futuro che abbia a che fare con l’intelligenza artificiale e che allo stesso tempo risulti sicuro? Come gestire l’intelligenza artificiale per progettare un domani migliore che non rappresenti una minaccia? Queste le nuove urgenti e indilazionabili domande che ci interrogano sul da farsi.

Negli ultimi 15 anni la tecnologia, l’intelligenza artificiale, la machine learning, hanno fatto passi da gigante, dando luce al mondo del touch, della 3D alteration, degli smartphone, di app che possono, addirittura, valutare lo stato di salute dell’essere umano, monitorarlo costantemente. Se parole come deep fake, chatbot, biohacking (insieme a molte altre) sono ormai entrate nel lessico quotidiano, la sfida dell’intelligenza artificiale è ancora tutta da giocare. Forse la risposta alle inquietanti domande poste sta nell’usability, ossia nella nuova disciplina che mira a rendere friendly e più manegevoli i sistemi tecnologici avanzati, meglio definita dall’ISO come “l’efficacia, l’efficienza e la soddisfazione con le quali determinati utenti raggiungono determinati obiettivi in determinati contesti”. Una soluzione, a nostro parere, alquanto riduttiva del problema che, invece, attiene alla capacità stessa della ragione di governare il futuro, scongiurando l’eterogenesi dei fini: la tecnologia che, da mezzo, diviene fine, sottomettendo gli umani. Chi potrebbe dimenticare HAL 9000, il supercomputer di “2001 Odissea nello spazio”?

In altre parole, la tecnologia come nuova metafisica, preconizzata con lungimirante saggezza da Heidegger. C’è una strada alternativa e più credibile da percorrere? Difficile dirlo. Ipotizzabile, almeno in via teorica, e certamente auspicabile, la ricostruzione di un pensiero critico all’altezza della complessità, in grado d’interpretare e governare, attraverso una rinnovata e rinvigorita intelligenza sociale e collettiva,  che si affranchi dal pensiero debole e melenso oggi dilagante, l’universo in espansione costante della scienza applicata, della cibernetica e dell’Intelligenza artificiale. Sarebbe ora di dare alla luce l’Oltreuomo Nietzschiano, portatore di una volontà di potenza fondata su sapere, conoscenza, responsabilità e maturità, invece che alimentare indifferenza, narcisismo di massa e sottomissione al Potere, magari quello incarnato dal sistema degli algoritmi.

Aldo Musci

Post navigation

Articolo precedente:

La Ue prova a irreggimentare l’Intelligenza artificiale

Articolo successivo:

Il Web inquina, lo sapevate?

[categoryposts]

Articoli più recenti

  • Paraguay, omicidio Pecci: le mafie si sono consorziate 12 Maggio, 2022
  • L’Ndrangheta mette radici nella Città Eterna: 43 arresti per operazione Dda e Dia 10 Maggio, 2022
  • Cybersicurezza, arriva la strategia nazionale 10 Maggio, 2022
  • Israele: siamo alla vigilia di omicidi mirati contro Hamas? 9 Maggio, 2022
  • Ucraina, 12 generali russi uccisi grazie all’intelligence Usa 5 Maggio, 2022

Tag

Afghanistan Al Qaeda ambiente antimafia CIA Cina Commissione Ue Comuni Copasir Coronavirus Covid-19 crisi cybercrime democratici digitalizzazione Donald Trump Fondazione Antonino Caponnetto geopolitica guerra intelligence Intelligenza artificiale Isis legalità mafia mafie N'Drangheta narcos narcotraffico OMCOM pandemia Pier Paolo Santi povertà Recovery Fund Salvatore Calleri servizi segreti smart city spionaggio Stati Uniti d'Europa Talebani tasse terrorismo Trump Ucraina Unione europea USA
© 2022 CHRONOPOLIS | Built using WordPress and SuperbThemes