ההיסטוריה כנראה, בכל זאת, חוזרת

התרמית של המאה: איך בונים מכונות חכמות
תמונתו של ישפי
פרופסור יהושפט גבעון

לפני מאה שנים ויותר נבנו מכונות שהרשימו את הצופים בהן בתבונה שהתגלתה בפעולותיהן, עד שהתגלה שמתחת לשולחן שעליו ניצבה המכונה התחבא אדם שהפעיל במו ידיו את המכונה. אותו הדבר בדיוק קורה היום בתחום המכוניות האוטונומיות.

במאמרו השבועי של גארי מרקוס, ביום 5 בנובמבר 2023, נחשפה תרמית של יצרני המכוניות האוטונומיות שמזכירה בהחלט את ניסיונות ההונאה של יצרני האוטומטים להציג מכונות שמשחקות שחמט באופן אוטונומי, לפני למעלה ממאה שנים. מתברר, לפי דיווח של ה"ניו יורק טיימס" מיום 3 בנובמבר 2023, שאחת היצרניות מכרה מכוניות כמכוניות אוטונומיות בשעה שבעת פעולתן הן נמצאו בקשר כמעט מתמיד עם אדם, מרוחק אמנם, שישב במרכז הפעלה וניווט את המכוניות האלה מטעם היצרנים.

תארו לכם שבבחינות, כגון בחינות בגרות, בחינות קבלה או ראיונות קבלה לעבודה, מורכבים התקנים לתקשורת מילולית וחזותית של הנבחנים עם מדריך סמוי היושב ב"מרכז הדרכה" שמספק לכל נבחן פתרונות בזמן אמת וכך עוזר להם לעמוד בבחינה ברמת הצלחה סבירה לפי הזמנה. בבחינות הללו האוטונומיה המוחלטת של הנבחנים היא תנאי הכרחי למשמעות של עצם העמידה בבחינות. פגיעה באוטונומיה של הנבחנים, בכל דרך שהיא, פוסלת את תוצאות הבחינות האלה.

מעורבות של נווטים מרוחקים בנהיגה במכונית איננה פוסלת את תוצאות הנהיגה הזאת, אבל הסתרת העובדה הזאת מערערת את הבסיס להתלהבות מהמכוניות האלה כדוגמה להצלחת הפיתוחים הטכנולוגיים בכלל ולהצלחה של פיתוח הבינה המלאכותית בפרט.

אין פלא שפיינמן סבר, עוד בשנת 1974, שבעיית הקניית היושרה האקדמית הייתה בעיה קריטית של החינוך המדעי. בהרצאתו המפורסמת לבוגרי התואר הראשון ב"קלטק" הוא הודה שלמרות חשיבותה של היושרה האקדמית להצלחת המחקר המדעי, בקלטק לא ידעו איך להקנות אותה אלא רק באמצעות דוגמה אישית, "בדרך הפעפוע". אני דנתי בנושא זה במאמר קודם על הקשר שבין יושרה מדעית ליושרה שיווקית. כנראה הרצון להצליח בשיווק של מוצר חדש או להציל חברה המייצרת מוצר חדש מפשיטת רגל יכול לפתות את היצרנים ואת המשווקים לחרוג מגבולות היושרה.

לדעתי, אנו לא שמים לב לכך שהשימוש האינטנסיבי בפלטפורמות הדיגיטליות, מכל סוג שהוא, פוגע ביכולת שלנו לממש יחסים, מכל סוג שהוא. הרי שברגע שמספר ה"חברים" הווירטואליים שלך, שהפגישות איתם מתקיימות רק ברשת, עולה על מספר החברים הממשיים שלך, או הזמן המושקע באותם חברים וירטואליים עולה על הזמן המושקע בפעילות ממשית בתחום החברתי, יש סכנה לאובדן יכולתך החברתית "הישנה". היות שאנו מוגדרים כיצורים חברתיים, הרי שאם אני צודק, אז השימוש המוגבר באמצעים הדיגיטליים מסכן את עצם האנושיות שלנו.

הונאת לקוחות מצטרפת אפוא אל ההתעלמות מהמאפיינים של הטכנולוגיות החדשות ואל הכלכלה המניפולטיבית של ניצול לקוחות על ידי יצרני הטכנולוגיה, ליצירה של תרבות עתירת שקרים והונאות. אפילו מבחן טיורינג אינו בוחן תבונה אלא כהצלחה בהונאה. לכן אני חושש שמתגלים כאן שוליים של תופעה הרסנית מאוד. אנו כנראה מאבדים את ערך האמת כערך החיוני לתרבותנו. תופעה זו גאתה יחד עם הפוסט-מודרניזם, שבלבל את אנשי החינוך. וזה מתגבר היום עם תפוצה בלתי מרוסנת של פחדים לא רציונליים שמתרבים ללא מעצור בעקבות השימוש הלא מרוסן ברשתות החברתיות.

לכל אלה המנסים להרשים אותנו בהדמיה של ידיעה בתחומי הטכנולוגיה הדיגיטלית (הכוללים את תחומי הרובוטיקה, ולכן גם את המכוניות האוטונומיות, ואת תחומי הבינה המלאכותית) יש לי הצעה פשוטה אחת, לקרוא ולהבין שני מאמרים.

האחד, מאמרו המקורי של טיורינג מ-1936 שבו הוא ניסה להגדיר מה הם תהליכי חישוב המתבצעים על ידי מנגנון (מכונת טיורינג). מסיבה זו או אחרת הוא, במאמר עצמו, הוכיח שיש בעיות מוגדרות היטב, ובכל זאת אינן ניתנות לפתרון על ידי תהליכים כאלה.

השני, מאמרו של נועם חומסקי מ-1956 שבו הוא דן בכמה מודלים לתיאור לשון, בסדרה הקרויה "ההיררכיה של חומסקי". גם במאמר זה תוכלו לפחות למצוא תיאורים של המגבלות של המודלים ליצירת לשון. כך נהגו החוקרים בימים שבהם לאמת היה ערך.

נסו למצוא מאמר אחד שבו המגבלות של "המודלים הגדולים ללשון" מתוארות או נדונות. אני עובד כבר כמה שנים בתחום הבינה המלאכותית וקראתי עשרות כתבות ומאמרים על פאר היצירה בתחום. באף אחד מהם לא מרמזים אפילו על מגבלות עקרוניות של ChatGPT. מזה אפשר להסיק שאף אחד מהכותבים לא קרא את מאמרו של טיורינג על חישובים. רק מי שקרא את מאמרו זה של טיורינג היה שם לב לעובדה שטיורינג חשב שחשוב להציג את החישובים הדיגיטליים יחד עם מגבלותיהם העקרוניות.

אזהרת מסע: המאמר של טיורינג משנת 1936 הוא מאמר מיוחד, כי משום מה הוא לא הובן על ידי רבים מאבות הטכנולוגיה הדיגיטלית. ככל הנראה רוב הכותבים על טיורינג ועל הבינה המלאכותית לא קראו את המאמר המכונן של העידן הדיגיטלי או לא הבינו אותו.

Facebook
Twitter
LinkedIn
WhatsApp
Email

8 תגובות

  1. זה שיש מגבלות לטכנולוגיות, וזה זיש מי שמסתיר אותן, זה לא אומר שאין הרבה טוב באותן טכנולוגיות, והבעיות לא הולכות ונפתרות. רמאים יש בכל תחום אנושי

    1. לעודד, תודה על כך שהגבת על המאמר,
      אבל תגובתך מעלה את השאלה הבאה: ומה אם מה שמוסתר ממך, ביחס לכלי מסוים, יפגע בך או בסביבתך פגיעה הרסנית??? תתנחם בשאר המעלות הטובות והנהדרות שיש לכלי??

  2. קשה להאמין שה'בינה המלאכותית' תמלא את הצפיות ממנה.
    קשה מאוד להבין מה יש באדם שאין במחשב…
    אבל לאדם ישנה יכולת שאין לאף מחשב בעולם ולא יהיה.

  3. רמאויות ושלילה יש בכל. בתרופות, בבנייה, באקדמיה, ובמה לא? למה לא להתרכז בחיוב, באמיתי, במה שמביא תועלת לעולם? למה להדגיש את אלא המנצלים לרעה?

    1. לדוד, ציפיתי שמישהו מבין הקוראים יעמיד אותך על טעותך.
      אתה הולך בדרך ולפניך תהום שאינך רואה וברור שתיפול. לפי המלצתך אדגיש בפניך את יופי הנוף ולא אזהיר אותך. למה להדגיש את המהמורות שבדרכך?

      1. ומה אני עושה כאשר אני יודע שתהום לפני ואין לי חלופה?
        שיעור בפילוסופיה מעשית?

        1. ל?. תמיד יש חלופה אחת לפחות. לא להמשיך לרוץ קדימה בהתלהבות של שוטים מסוממים, אלא לעצור תחילה, להתבונן סביב ולבחור בדרך אחרת.

  4. זה לא שההיסטוריה חוזרת על עצמה. פשוט האופי האנושי נשאר כפי שהיה

כתיבת תגובה

האימייל לא יוצג באתר. שדות החובה מסומנים *

פרסום תגובה מהווה הסכמה לתנאי השימוש באתר.
התגובות יפורסמו לפי שיקול דעת העורך.

עשוי לעניין אותך

דילוג לתוכן