ג'פרי הינטון
ויקיפדיה האנציקלופדיה encyclopedia
ג'פרי אוורסט הינטון (אנגלית: Geoffrey Everest Hinton; נולד ב-6 בדצמבר 1947) חבר כבוד ב"מסדר קנדה", "החברה המלכותית בלונדון" ו"החברה המלכותית של קנדה", הוא פסיכולוג קוגניטיבי אנגלי-קנדי ומדען בתחום מדעי המחשב. פרסומו העיקרי של ג'פרי נובע מתרומתו למדע בתחומי רשתות נוירונים מלאכותיות. מאז 2013, ג'פרי פעיל בעיקר ב"גוגל" וכחוקר באוניברסיטת טורונטו.
לידה |
6 בדצמבר 1947 (בן 76) וימבלדון, הממלכה המאוחדת |
---|---|
ענף מדעי | למידה עמוקה, למידת מכונה |
מקום מגורים | קנדה |
מקום לימודים |
|
מנחה לדוקטורט | ה. כריסטופר לונז'ה-היגינס |
מוסדות | |
תלמידי דוקטורט | Andriy Mnih, David C. Plaut, איליה סוצקבר, Christopher K. I. Williams, Volodymyr Mnih, Ruslan Salakhutdinov, Jimmy Ba, Brendan J. Frey, Richard S. Zemel, Radford M. Neal, Yee Whye Teh, Carl Edward Rasmussen, Navdeep Jaitly, George Edward Dahl, Yichuan Tang, Tijmen Tieleman, Abdel-rahman Mohamed, Nina Thiessen, Nitish Srivastava, Evan Whitney Steeg, Andrew Denis Brown, James Martens, Radek Grzeszczuk, Sageev Oore, Kevin Lang, Steven Nowlan, Alberto Paccanaro, Sidney S. Fels, David H. Ackley, Andriy Mnih, Peter Brown, Brian Sallans, Mark Derthick |
פרסים והוקרה |
|
www | |
ג'פרי התפרסם, בין השאר, בהמשך למאמר שכתב ביחד עם חוקרים נוספים, ב-1986. המאמר שלהם עסק באלגוריתם "פעפוע לאחור" כשיטה לאימון רשתות נוירונים מלאכותיות. רבים בקהיליית מפתחי רשתות הנוירונים המלאכותיות מתייחסים אל ג'פרי כאל "הסנדק" של התחום[1]. ניצחונו של אלכס קריזבסקי, סטודנט של ג'פרי, בתחרות זיהוי עצמים "אימאג'נט" (אנ'), ב-2012, נחשב לאירוע שהביא את נושא רשתות העצבים המלאכותיות/ למידה עמוקה/ בינה מלאכותית אל המודעות הציבורית בתקופה הנוכחית - מה שהביא לגל התעניינות עצום בתחום.
באפריל 2023, ג'פרי התפטר ממשרתו ב"גוגל" והחל להתבטא על הסכנות שהבינה המלאכותית עלולה להביא איתה. בין השאר, ג'פרי מציין את היכולת של המודלים ללמוד האחד מהשני, העובדה שניתן "להעתיק" את המודל ממחשב למחשב (הן הארכיטקטורה והן המשקלים). תכונה הגורמת לזה שהם, המודלים, ברי שכפול מצד אחד ונצחיים מצד שני - ביחד עם התנהגויות מתהוות שאיש לא ציפה להן, בעיקר בהקשר למודלי השפה הגדולים - כל אלו ביחד, הביאו אותו למחשבה שלא מדובר בניסיון "בינוני" לחקות את מוח האדם - אלא שמדובר במשהו אחר, שיש לו מאפיינים מסוכנים ואם הוא לא "יטופל" בצורה נכונה - הוא עלול לסכן את גורל האנושות וזאת מכיוון שהמודלים עלולים להגדיר לעצמם את פונקציות המטרה וכבר היום יש להם יכולות בתחום ההנמקה וקבלת ההחלטות שאיש לא צפה, כמו גם יכולת לעבור מגוון גדול של "מבחני אינטליגנציה"[2].