Geoffrey Hinton
Da Wikipedia, l'enciclopedia libera.
Geoffrey Everest Hinton (Wimbledon (Londra), 6 dicembre 1947) è un informatico britannico naturalizzato canadese.
Noto per i suoi contributi allo sviluppo dell'apprendimento automatico, è considerato uno tra i ricercatori più influenti nello sviluppo dell'apprendimento profondo.[1][2][3][4][5] Professore all'Università di Toronto e ricercatore presso Google Brain, nel 2017 fondò il Vector Institute for Artificial Intelligence a Toronto, di cui è consulente scientifico principale pro bono.[6][7]
Nel 1986 ha pubblicato con David Rumelhart e Ronald J. Williams un articolo di particolare influenza, che popolarizzò il già noto[8] uso dell'algoritmo di retropropagazione dell'errore per l'allenamento di reti neurali a più livelli.[9] Nel 2012 AlexNet, rete neurale profonda progettata in collaborazione con i suoi studenti Alex Krizhevsky[10] e Ilya Sutskever, ottenne risultati rivoluzionari nel problema di classificazione delle immagini, migliorando con un largo margine i risultati dell'ImageNet challenge nel 2012[11] e aprendo la strada all'applicazione delle reti neurali profonde in problemi di visione artificiale.[12]
Nel 2018 ricevette, insieme a Yoshua Bengio e Yann LeCun, il Premio Turing per i suoi contributi allo sviluppo dell'apprendimento profondo.[13] I tre ricercatori sono noti come "padrini dell'apprendimento profondo" per via dell'influenza dei loro contributi allo sviluppo del settore.[14][15]
Biografia
Hinton è pronipote di George Boole e del chirurgo e scrittore James Hinton,[16] nipote dello scrittore Charles Howard Hinton e dell'economista Colin Clark,[17] e figlio dell'entomologo Howard Everest Hinton.[18][19] Il suo secondo nome è un omaggio a un suo altro parente, il cartografo George Everest.[20]
Studiò al King's College a Cambridge, dove conseguì un Bachelor of Arts in psicologia sperimentale nel 1970,[18] e successivamente all'Università di Edimburgo, dove conseguì un dottorato di ricerca in intelligenza artificiale nel 1978, sotto la supervisione di Christopher Longuet-Higgins.[21][22][23]
Dopo il dottorato lavorò presso l'Università del Sussex e, a causa della difficoltà nel reperire finanziamenti di ricerca nel Regno Unito, si spostò presso l'Università della California a San Diego, dove fu professore ospite per un semestre nel 1982, e l'Università Carnegie Mellon, dove lavorò dal 1982 al 1987.[18] A seguito delle politiche reaganiane e del finanziamento militare alla ricerca sull'intelligenza artificiale,[20] Hinton lasciò gli Stati Uniti d'America e si trasferì in Canada nel 1987, dove divenne professore[24] presso il dipartimento di informatica dell'Università di Toronto, titolare della Canada Research Chair in apprendimento automatico, e consulente del programma Learning in Machines & Brains presso il Canadian Institute for Advanced Research (CIFAR). Nel 1998 fondò il Gatsby Charitable Foundation Computational Neuroscience Unit presso l'University College London, di cui fu direttore fino al 2001.[18]
Nel 2012 Hinton tenne un popolare corso gratuito sulle reti neurali artificiali presso la piattaforma di apprendimento online Coursera.[25] Nel marzo 2013 venne assunto da Google a seguito dell'acquisizione della società DNNresearch Inc., da lui fondata, e da allora divide il suo tempo tra l'università e il lavoro presso Google.[26]
Interessi di ricerca
Durante il suo periodo presso l'Università Carnegie Mellon (1982–1987) Hinton, insieme a David E. Rumelhart e Ronald J. Williams, applicò la retropropagazione dell'errore alle reti neurali artificiali a più livelli, mostrandone la capacità di imparare utili rappresentazioni.[9] In un'intervista tenuta nel 2018,[27] Hinton attribuì a David E. Rumelhart l'idea originale di usare la retropropagazione dell'errore. Il metodo era stato usato in precedenza in tecniche di apprendimento automatico, grazie all'introduzione della differenziazione automatica (che è comunemente usata nell'implementazione dell'algoritmo di retropropagazione) da parte di Seppo Linnainmaa nel 1970, e della sua applicazione all'allenamento di reti neurali da parte di Paul Werbos nel 1974.[8]
Nello stesso periodo Hinton introdusse, insieme a David Ackley e Terry Sejnowski, le macchine di Boltzmann.[28] Produsse inoltre risultati significativi nello sviluppo di rappresentazione distribuita, reti neurali a ritardo, macchine di Helmholts, misture e prodotto di esperti. Nel 2007 contribuì a un articolo sull'apprendimento non supervisionato di trasformazioni delle immagini.[29] Nel 2008 introdusse insieme a van der Maaten l'algoritmo t-SNE,[30] basato sull'algoritmo stochastic neighbour embedding introdotto dallo stesso Hinton nel 2002.[31] I suoi contributi di ricerca sono stati oggetto di articoli divulgativi su Scientific American nel settembre 1992 e ottobre 1993.[32]
Nel 2012 Hinton produsse uno dei risultati più noti della sua carriera, introducendo AlexNet, una rete neurale profonda progettata in collaborazione con i suoi studenti Alex Krizhevsky[10] e Ilya Sutskever. Tale modello ottenne risultati senza precedenti nel problema di classificazione delle immagini, migliorando significativamente rispetto a tecniche tradizionali allora dominanti e ottenendo il primo posto con un largo margine nell'ImageNet challenge nel 2012.[11] Tale risultato fu una pietra miliare nell'evoluzione della visione artificiale, aprendo la strada all'applicazione delle reti neurali profonde in una varietà di problemi.[12]
Nell'ottobre e novembre 2017 Hinton pubblicò due articoli[33][34] che introdussero le reti neurali a capsula.[35]
Riconoscimenti
Hinton venne nominato Fellow of the Royal Society nel 1998.[36][37][38][39] Nel 2001 ottenne un dottorato onorario dall'Università di Edimburgo.[40] Nello stesso anno fu il primo vincitore del premio Rumelhart. Nel 2005 ricevette la Gerhard Herzberg Canada Gold Medal for Science and Engineering.[41] Nel 2011 ottenne un dottorato onorario dall'Università del Sussex, e nel 2013 un dottorato onorario dall'Università di Sherbrooke.[42] Nel 2016 venne eletto membro internazionale della National Academy of Engineering "per i suoi contributi alla teoria e pratica delle reti neurali artificiali e la loro applicazione a riconoscimento testuale e visione artificiale".[43] Nello stesso anno ricevette l'IEEE/RSE Wolfson James Clerk Maxwell Award[44] e il BBVA Foundation Frontiers of Knowledge Award nella categoria Information and Communication Technologies "per il suo contributo pionieristico e altamente influente" nel dotare le macchine della capacità di apprendere.[45]
Nel 2018 ricevette, insieme a Yann LeCun, e Yoshua Bengio, il Premio Turing "per i contributi concettuali e ingegneristici rivoluzionari che hanno reso le reti neurali profonde una componente informatica essenziale".[46][47][48] Nello stesso anno venne nominato Companion dell'Ordine del Canada.[49]
Opinioni sull'intelligenza artificiale
Hinton ha espresso opposizione all'uso di armi letali a controllo automatico. Generalmente si rifiuta di esprimere predizioni a lungo termine riguardo ai rischi della singolarità tecnologica, osservando che il progresso esponenziale nel settore causi troppa incertezza sul futuro.[50] Tuttavia, The New Yorker gli attribuisce una conversazione con il ricercatore Nick Bostrom nella quale avrebbe affermato di non aspettare lo sviluppo di un'intelligenza artificiale forte prima di diversi decenni ("non prima del 2070") e che non ci sia speranza di controllare l'uso dell'intelligenza artificiale nel futuro, affermando che i sistemi politici ne faranno uso per terrorizzare la popolazione, e che entità come la National Security Agency stiano già cercando di sfruttare tali tecnologie. Riguardo ai rischi della singolarità tecnologica, non esclude la possibilità di sopravvivenza dell'umanità, ma osserva che non ci sono precedenti di una specie di intelligenza inferiore capace di controllare una specie superiore.[51]
Onorificenze
Onorificenze straniere
![]() |
Compagno dell'Ordine del Canada |
«Geoffrey Hinton è stato la forza trainante dietro lo sviluppo di una nuova forma di intelligenza artificiale. Professore emerito presso l'Università di Toronto e socio ingegnere del Google's Brain Team, ha aperto la strada agli algoritmi di apprendimento che consentono ai computer di riconoscere il parlato, interpretare le immagini e trovare la struttura in set di dati complessi. Conosciuto come il "padrino delle reti neurali", è stato mentore di molti eminenti scienziati del settore e ha rivoluzionato il modo in cui le persone interagiscono con la tecnologia nella loro vita quotidiana.» — nominato il 19 novembre 2018, investito il 15 dicembre 2020[52] |
![]() |
Premio Principessa delle Asturie per la ricerca scientifica e tecnica (Spagna) |
— 15 giugno 2022[53] |
Text is available under the CC BY-SA 4.0 license; additional terms may apply.
Images, videos and audio are available under their respective licenses.