שרי טרקל, בספרה על תביעת השיחה בחזרה שיצא לאור בשנת 2015, דיווחה בזעזוע על התייחסותו של אריק שמידט, מייסד "גוגל", אל ההתנהגות הכפייתית של השימוש בטלפונים הניידים בזמן הרצאה: "את זה בדיוק אנו רוצים!" ומה עושים היצרנים כדי להשיג את רצונם זה ולממש אותו? זה לא סוד. רמזים על כך מספקים כמה חוקרים שהכירו מקרוב את עמק הסיליקון, כמו דאגלאס ראשקופף, יארון לאנייר ושרי טרקל עצמה, שהייתה גם אחת הראשונות שחקרו את התנהגות הצעירים בסביבות המחשבים בשנות ה-80 של המאה הקודמת.
לפי הנתונים שבידי, יצרני הטלפונים הניידים נוקטים כמה אסטרטגיות כדי לשפר את מכירותיהם. ראשית, הם מגייסים את מיטב בוגרי המחלקה לפסיכולוגיה באוניברסיטת סטנפורד כדי שיעבדו על תחבולות פסיכולוגיות שישובצו בתוצרים שלהם ויהפכו אותם לנחשקים עד כדי התמכרות. אותם חוקרים רומזים בגלוי שהפסיכולוגים מאתרים דרכים להטעות את המשתמשים ולפתות אותם. היצרנים גם מציפים אותנו במידע מעוות כדי להטמיע בנו חשיבת כוורת לפי מיטב האידאולוגיה המטריאליסטית. לפי אידאולוגיה זו, השימוש החברתי בכלים יוצר את החשיבה.
בזמן האחרון נראה שיש התעניינות תוססת בנושא הבינה המלאכותית והרובוטים. לפני ימים אחדים ממש דווח בתקשורת שלנו על הרצאה של אריק שמידט בוועידת הביטחון במינכן כדלקמן: "מנכ"ל גוגל לשעבר מרגיע: לבינה מלאכותית יקח 10-20 שנה עד שתוכל להרוג בני אדם. המנכל לשעבר שמידט הוסיף אמירה מעניינת ואמר שלא היה רוצה לטוס במטוס אוטונומי לגמרי, וטען שלבינה מלאכותית יש עדיין טעוית. לטענת אריק שמידט לבינה מלאכותית יקח בין 10 ל-20 שנה עד שתומצא מכונה של בינה מלאכותית שתוכל להרוג בני אדם בצורה טובה, ולכן אין טעם להתחיל לדאוג עכשיו, הוא טען שייתכן ויהיה טעם לדאגה אבל לא עכשיו אלא בעתיד… לדברי שמידט, 'יש עדיין כשלים רבים וטעויות רבות מאד שהמחשבים עושים'" (השגיאות במקור).
בטקסט המרגיע הזה שצוטט, במילים אלה או אחרות, בפלטפורמות שונות, יש עדיין כמה שגיאות חמורות. אבל העובדות מצלצלות אחרת. ב-1985 נפגעו כמה מטופלים מטיפול כימותרפי שנוהל על-ידי תוכנה פגומה. לפחות שלושה מטופלים מתו בגלל שגיאת תוכנה. חפשו ברשת את הכינוי Tharec-25 וקראו את הדו"חות. אז תוכנות כבר יכולות להרוג בני אדם. האם הייתה זאת "בינה מלאכותית"? מובן שאם התוכנה הייתה ללא פגם, היו קוראים לה "בינה מלאכותית". לפני עשרות שנים התפרסם מאמר ובו טען הכותב שאין סיכוי להצלחת תוכנות הבינה המלאכותית, מכיוון שהן תהיינה כה מורכבות ובעלות פגמים שיקשה עלינו לאתרן או לתקנן מבלי להסתכן ביצירת פגמים נוספים.
"בינה מלאכותית", בכל רמה של הצלחה, היא תוכנה, ואפשר להתייחס אליה כאל חומרה כי חומרה ותוכנה הן ישויות מקבילות בעולם הספרתי. פרט להמצאת ממשקים חדשים, אין צורך בהמצאה של מכונות פיזיקליות חדשות שתהיינה "מכונות של בינה מלאכותית". אפשר פשוט לתכנת עבורן מימוש דיגיטלי במחשבים. מצב זה הוא תוצאה של רעיון הכלים הספרתיים האוניברסליים, שהתגלה בשנות ה-30 של המאה הקודמת. עם זאת, נסו למצוא בכל המקורות שלכם המדווחים על ההצלחות המתקדמות של הבינה המלאכותית, ניסוח של הגדרה ברורה שמאפשרת לכם להבחין בין תוכנה עם "בינה מלאכותית" ובין תוכנות "רגילות".
עוד בעיה בטקסט היא הקביעה שלבינה מלאכותית יש טעויות. אבל לבינה מלאכותית אין טעויות. גם המחשבים אינם "עושים טעויות". השגיאות שיש בתוכנות הן פרי המגבלות של המתכנתים, הטעויות וההזנחות שלהם. כך גם לגבי שגיאות חומרה. אסון המכביה ביום 14 ביולי 1997 לא התרחש משום שהגשר עשה טעות.
ולבסוף, מה פירוש "להרוג בני אדם בצורה טובה"? האם המתרגם התלהב ונסחף?
קשה לסמוך על כתבות שאינן מקוריות, כי כותביהן נכשלים – או בתרגום או בהבנת הנקרא. לכן, כדי לברר סוגיות אלה בדרך אמינה יותר, חיפשתי את המקור. אולי משהו השתבש בתרגום? ואכן מצאתי קטע אחד שבו צוטט שמידט באותו כינוס ביום 28 בפברואר השנה, באתר www.defensenews.com:
The other point that I want to remind everyone, these technologies have serious errors in them, and they should not be used with life-critical decisions,” Schmidt said. “So I would not want to be in an airplane where the computer was making all the general intelligence decisions about flying it. The technology is just not reliable enough – there too many errors in its use. It is advisory, it makes you smarter and so forth, but I wouldn’t put it in charge of command and control
ובעברית, הנאמנה למקור קצת יותר מהכתבים שלנו: "במכשירים האלה יש שגיאות רציניות … הטכנולוגיה פשוט עדיין איננה אמינה דיה – יותר מדי שגיאות בשימושים בה". כך מודה שמידט שמשהו אינו תקין "בטכנולוגיה", מבלי לציין שמדובר בשגיאות רציניות של היצרנים – של מהנדסי החומרה ומתכנתי התוכנות – שאינם מסוגלים להתמודד איתן ברמה מקצועית, ובוודאי השגיאות הן לא של המשתמשים, אף שמשתמשים יכולים לשגות. שמידט מחזיר אותנו לשנות ה-70 של המאה הקודמת, שבהן בכל תקלה במחשב שנגרמה על-ידי המתכנת דווחה למשתמש בהודעת שגיאה סתומה ללא הצהרה על אחריותם של היצרנים.
מה עומד מאחורי ההטעיות המוזרות האלה? מאז שנות ה-50, בגלל הקשיים והעדר ההצלחות המקוּווֹת, מושג הבינה המלאכותית עבר גלגולי הגדרות ומשמעויות. היום אחת ההגדרות הנפוצות ביותר של המושג מתארת את הבינה המלאכותית כתוצר טבעי ספונטני של תוכנות מורכבות, בדיוק כפי שהבינה האנושית נתפסת כתוצר ספונטני של מורכבות המוח ושל האבולוציה.
המאמינים לא טורחים להבהיר לנו אם בניתוח מצבה של "הבינה המלאכותית" מדובר עדיין בשלב המקביל לינקות של היחיד הנולד, או בשלב אבולוציוני מתקדם של המין הספרתי. המאמינים ב"בינה המלאכותית" מצהירים ומנבאים שיש להמתין כמה שנים. עם ההתפתחות של גודל החומרה ושל מהירות פעולתה, הבינה המלאכותית תופיע מאליה כתופעה של "נקודה סינגולרית" או של "אי-רציפות רביעית", כמו שהחיים והחברה האנושית הופיעו עלי-אדמות.
רוברט היינלין, אחד מגדולי סופרי מד"ב, תיאר תופעה כזאת בספרו הנפלא "עריצה היא הלבנה", שפורסם ב-1966. יום אחד, רשת המחשבים ששלטה במושבת העונשין "לונה" התגלתה כבעלת תבונה ויכולת חשיבה. לעומת הופעה ספונטנית של תבונה, טיורינג הציע ב-1950 רעיון בדיוני לא פחות, ליצירת תוכנה נבונה כמו האדם. אפשר לתכנת מחשב עוברי, חסר תוכן, וכמו שתבונתו של אדם מתגלה אצל תינוק רק עם גדילתו, ומתפתחת כתוצאה מהתנסותו בפרסים ובעונשים מגמתיים, כך נוכל לקבל מחשב נבון.
בסיפור הבינה המלאכותית מתמזגות כמה גישות כלפי העולם הספרתי. אחת מהן, המתמידה ביותר, היא הגישה המדגישה את חשיבות החומרה והמבטלת את חשיבותם של יוצרי ויוצרות התוכנות. תארו לעצמכם שהיינו חיים בעולם סִפְרותי ומעריצים את דפי הנייר ואת צבע הדפוס ומתעלמים כליל מהסופרים ומהמשוררים. כך התפעלו הוגי דעות רבים ממכונת הדפוס כשייחסו לה כוחות מופלאים של נסיעה בזמן (בגרימת הישגים תרבותיים שהתרחשו מאות שנים לפני המצאתה) ושל יצירה של מהפכה תרבותית שלא היה דומה לה. מי שייסד את גוּגל מנסה לשכנע אותנו שבינה מלאכותית תיווצר מאליה "בטכנולוגיה" ולא כיישום של מאמצים חשיבתיים של בני-אדם יצירתיים. אפילו המלה "טכנולוגיה" משמשת להסתרת המציאות. למה שמידט מתכוון במלה "טכנולוגיה"?
כנראה השכל שלנו אינו מסוגל לעמוד מול המכונות החדשות מבלי שנאבד את תבונתנו. האם זו השפעה מיוחדת של המכונות החדשות על מחשבתנו? אין ספק שמשהו במחשבתנו המעורפלת על פעולת המחשבים מערפל את תבונתנו וממציא לנו מציאות מיוחדת במינה: מכונות שעושות טעויות בגלל חשיבה מוטעית שלהן ושיש להן שגיאות רציניות ואשר בתוך דור או שניים תיהפכנה לנבונות יותר מאתנו. אבל עם הירידה המתמדת בסטנדרטים שלנו לתבונה, אנו לא מבחינים בעובדה המצמררת שגלשנו במדרון וכעת הן אכן נהיות נבונות יותר מאתנו. אנו, בהכנעה אדוקה, אפשרנו למכונות האלה לנהל את חיינו, למרות הפגמים שיצרנו בהן.
9 תגובות
אני חושבת שבסך הכל לאנשים יש יותר ויותר תבונה אלא שהעולם מתפתח במקביל ומוסיף צורך בעוד ועוד תבונה ולכן לא צריך ולא אפשרי להבין את הכל ולכן אנשי מקצוע מתמחים כל אחד בתחומו.
כמובן אביחיל,
אבל לא כתבתי מאומר "על הכל" אלא על כמה דברים פשוטים כמו שגשרים אינם עושים טעויות ומומחים להטעיית בני-אדם משקיעים במכשירי הטלפון שבידינו כך שלא נוכל להתמיד בתשומת לב לסובב אותנו, גם כשמדובר בהרצאה מעניינת או בחציית רחוב. רציתי לכתוב "בנהיגה במכונית" אבל ב"עולם המתפתח" (מאליו?) לא יהיה צורך בנהגים, אז אולי יהיה צורך במעברי חצייה שלא יחצו כבישים אלא יעברו מתחתם…
אבל האתגר שווה
מי בונה את המחשבים
מי כותב את התוכנות
מה שיותר במוצר שלו.
ראשית, מדובר ביו"ר גוגל והוא לא עודד את השימוש בגוגל אלא את השימוש בניידים. אז תאמר, אדרבא ואדרבא, הוא מפרגן ליצרני הניידים.
ואינך סובר שיש מה לתמוה על מרצה שלא אכפת לו אם הנוכחים בהרצאה יפנו את תשומת הלב מההרצאה עצמה? והאם הוא אינו תומך בזאת גם באלה שעוברים במעברי החצייה כשעיניהם דבוקות ל"מוצר שלהם"? ולנוהגים ברכב?
וגם קונדיטוריות וגם יצרני במבה והרשימה ארוכה עושים הכל כדי שתתמכר אליהם.
נכון. אבל הגורמים הממכרים במזונות הם כימיים וניתן לזהות אותם במעבדה וחובה לציין אותם ברשימת המרכיבים. חובה שלא ברור עד כמה ממלאים אותה. גם קשה להתחסן מפניהם. הגורמים הממכרים בניידים הם פסיכולוגיים ובחלקם אינם אפילו מושתלים בכלים אלא נובעים מתכונותיהם. כבר מקלוהן התריע לפני 54 שנים שמי שלא נזהר יושפע מהמדיום כמו מכישוף. דאגלאס ראשקוף כתב ספר שלם על הפיתויים הגלומים בכלים הדיגיטליים והציע "תכנתו ולא תתוכנתו" אבל אינני בטוח שזה מספיק. בנוכחות רובוטים אנו נוטים להתנהג כמו רובוטים וכל כלי דיגיטלי הוא, במידה רבה, רובוט, כי הוא מבצע רק אלגוריתמים.
וחושבים אחרת ולא הופכים לרובוטים מתוכנתים בדעותיהם