L Intelligenza Artificiale Di Platone


Download L Intelligenza Artificiale Di Platone PDF/ePub or read online books in Mobi eBooks. Click Download or Read Online button to get L Intelligenza Artificiale Di Platone book now. This website allows unlimited access to, at the time of writing, more than 1.5 million titles, including hundreds of thousands of titles in various foreign languages.

Download

L'intelligenza artificiale di Platone. Il pensiero, i chatbot e noi


L'intelligenza artificiale di Platone. Il pensiero, i chatbot e noi

Author: Luca Mari

language: it

Publisher:

Release Date: 2025


DOWNLOAD





Intelligenze artificiali


Intelligenze artificiali

Author: AA.VV.

language: it

Publisher: Gruppo 24 Ore

Release Date: 2024-07-21T00:00:00+02:00


DOWNLOAD





Al Mobile World Congress di Barcellona, la più importante fiera dedicata alla tecnologia su dispositivi mobili che si è conclusa poche settimane fa, quest’anno l’intelligenza artificiale era, ovviamente, il trend principale. Produttori di smartphone, processori, operatori e sistemi operativi esponevano l’acronimo “Ai”. Il 2024 è un anno importante perl’intelligenza artificiale generativa. Nel 2023 si è imposta all’attenzione del mondo. Ora è il momento di metterla alla prova. Le aziende la stanno utilizzando? Come? Sul fronte dell’offerta, cosa è successo dall’avvento di ChatGpt a oggi? Cosa cambia per gli studi professionali? Come affrontare rischi come le allucinazioni, gli errori, e i riflessi sull’occupazione? Questa guida nasce per cercare di rispondere a queste domande portando esempi concreti di utilizzo delle tecnologie, con una raccolta di articoli usciti sul Sole 24 Ore negli ultimi mesi e alcuni inediti. Il parlamento europeo ha approvato l’Ai Act, che ha un primato mondiale come norma organica. Al centro mette il rispetto e la centralità della persona umana. Nella guida trova spazio anche la partita geopolitica. Il governo italiano ha annunciato che metterà 1,1 miliardi per creare un campione nazionale. La Francia è partita prima. Gli Stati Uniti sono, ancora una volta, il posto dove tutto è iniziato. Mentre la Cina, e anche l’India, vanno avanti, con sistemi che forse non arriveranno mai da noi, aumentando le distanze.

Aspenia 1/2024


Aspenia 1/2024

Author: AA.VV.

language: it

Publisher: Gruppo 24 Ore

Release Date: 2024-03-19T00:00:00+01:00


DOWNLOAD





Aspenia, la rivista trimestrale di Aspen Institute Italia diretta da Marta Dassù, è stata fondata nel 1995 e, dal 2002, è pubblicata da Il Sole 24 Ore. Al numero in uscita nel mese di marzo “Il nostro futuro artificiale” hanno contribuito tra gli altri Yuval Noah Harari, Maurizio Ferraris, Pierluigi Contucci, Daron Acemoglu e Simon Johnson, Massimo Gaggi, Mariarosaria Taddeo, William Jones, Maurizio Mensi, Giusella Finocchiaro, Alessandro Aresu, Tanya Singh e Pramit Pal Chaudhuri, Carlo Jean, Alberto Mattiacci, Luca De Biase, Gianni Riotta e Federica Urzo. Ci sono i pessimisti, o quantomeno quelli fortemente scettici: l’Intelligenza Artificiale costituisce un pericolo e il suo rapido sviluppo va frenato per salvaguardare il controllo umano sul proprio futuro. E ci sono poi gli ottimisti: non esiste una vera minaccia perché, almeno allo stato attuale, un software digitale non è un organismo e, dunque, non ha desideri né teme di essere privato di qualcosa. Oppure c’è una terza via: siamo di fronte a un tipo di intelligenza profondamente diversa da quella umana, a cui non dovremmo applicare gli stessi parametri. Quella che oggi chiamiamo “Intelligenza Artificiale Generativa”viene spesso accostata alle nuove forme incentrate sull’interazione linguistica come nel caso del famoso ChatGPT, che stimola la percezione di una macchina creativa, quasi con la capacità di immaginare. Una cosa poi da non dimenticare: l’IA è stata “selezionata” dall’intelligenza umana, e qualunque possano essere gli sviluppi futuri, perfino quelli parzialmente al di fuori del nostro diretto controllo, quel legame tra umano e artificiale resterà anch’esso inscindibile. L’IA generativa è però quasi sfuggente per gli stessi ingegneri che l’hanno programmata; è un vero enigma per chi dovrebbe metterla sotto controllo mediante regole giuridiche e procedure amministrative. Questo vale, a maggior ragione, per i possibili accordi internazionali: è più facile contare vettori e testate nucleari che quantificare le capacità “generative” di un software che usa magari grandi server dislocati in più luoghi e che accede a un immenso cloud. Parallelamente alla legittima ricerca di accordi tra Stati per la gestione e il controllo delle nuove tecnologie, ci si può aspettare comunque una dinamica competitiva di potenza che potrebbe facilitare un certo bilanciamento, per quanto precario. Basti pensare alla natura profondamente politica dei rischi e delle opportunità legati all’IA in chiave interna agli Stati: la Cina, come molti altri regimi autoritari e illiberali, vede nelle nuove tecnologie digitali soprattutto uno strumento ulteriore di controllo della sua stessa popolazione, mentre i paesi democratico-liberali cercano un delicato equilibrio tra competitività economica, logiche di mercato e tutela dei diritti civili. Queste prospettive radicalmente differenti si riverberano poi sui negoziati internazionali, rendendo difficile un consenso su standard comuni. Resta il fatto che dovremo riflettere su come limitare i rischi collettivi e tutelare i diritti degli individui. Dal punto di vista normativo l’Unione Europea ha compiuto un primo passo importante, basato sui livelli di rischio dei vari sistemi di IA nelle loro applicazioni al mercato unico. L’industria europea peraltro ha alcune importanti nicchie di eccellenza, ma continua a scontare un divario competitivo rispetto ai grandi attori americani e asiatici. Anche se ci saranno aggiustamenti, precisazioni e aggiornamenti resta l’impressione che, nell’approccio europeo, il tema “rischio” prevalga nettamente su quello delle opportunità. Pur arrivando a diffondere un messaggio pubblico quasi del tutto basato sui pericoli e sul lato oscuro delle nuove tecnologie, non si arriva però a parlare di freno allo sviluppo dell’IA. Le varie applicazioni dell’IA potrebbero portare alla perdita di controllo, quella che i tecnologi hanno denominato “singolarità”. Per affrontare questa sfida davvero esistenziale Aspenia ritiene che si debba evitare un atteggiamento apocalittico o disfattista, partendo invece dalla questione fondamentale, dal concetto stesso di “intelligenza”: tutt’altro che univoco e condiviso perfino per i neurobiologi, oltre che per psicologi e filosofi. L’intelligenza umana è sociale, e non soltanto individuale; ne deriva che storicamente il maggiore punto di forza evolutivo della nostra specie è stata la cultura, cioè la capacità di tramandare le conoscenze e dunque di edificare nuove idee sulle idee sviluppate da altri individui. Come dice Patrick Tort “per l’umanità in termini semplificati, la selezione naturale seleziona la civilizzazione”, una dinamica che consente di tenere assieme la “singolarità umana”, l’inscindibile legame con i fattori biologici e l’insieme della natura. Quindi altrettanto importante è una visione umanistica della scienza - della scienza pura, prima ancora che di quella applicata - fondata sull’assunto che il metodo scientifico scaturisce proprio dal cervello umano in quanto modo specifico di guardare alla “natura” - essa stessa una definizione culturale e dunque, in buona misura, una creazione umana. È un campo in cui Aspen Italia lavora ormai da diversi anni, insieme ad Aspen USA, con un programma specifico sull’importanza dell’investimento nella “scienza pura”. Come vale per la clava improvvisata che viene brandita dalla grande scimmia di “2001: Odissea nello spazio”, con lo stesso strumento si può rompere un oggetto, uccidere un proprio simile, migliorare le condizioni di vita, costruire astronavi. Il modo specifico in cui la rivista cerca sempre di utilizzare l’intelligenza individuale e aggregata dei nostri autori è tutto sommato fiducioso nel progresso. E Aspenia resta di questa idea.