לזכור את העתיד

בחודשים האחרונים לא ניתן לחמוק משלל הכותרות המכריזות על עלייתה של ה"בינה מלאכותית" או "אינטליגנציה מלאכותית" [Artificial Intelligence (AI)], ועל ההשפעה הדרמטית האפשרית שלה על אורחות חיינו, המצויה לדברי מומחים ממש מעבר לפינה.

אבל מה זה בכלל AI?

לצורך העניין נתנתק רגע מהגדרות פורמאליות יבשות השנויות ממילא במחלוקת עמוקה בין גופים רגולטוריים ברחבי העולם. ההגדרה הכי טובה ששמעתי עליה באה מפיו של לקוח: "אם אתה מריץ תוכנה, הולך הביתה ולמחרת בבוקר אתה מגלה שהיא ביצעה משהו שלא ציפית לו, זה AI".

בעיקרו של דבר המדובר ביכולת של 'סוכן' מבוסס טכנולוגיה – רובוטים או תוכנה – להתנהג באופן אינטליגנטי ובמידה רבה של עצמאות. מכיוון שתמונה או סרטון שווים יותר מאלף מילים, ראו למטה הדגמה חיה – ראיון קצרצר ושומט לסתות עם הרובוטית 'סופיה' אודות עתיד הבינה המלאכותית:

המחקר של AI תפס תאוצה בעקבות ההצלחה של המכונה בזירת משחקי הלוח. בשנת 1997 מחשב העל של Deep Blue ,IBM, ניצח במשחק השחמט את אלוף העולם דאז, גארי קספארוב, ובשנת 2016 תוכנת המחשב AlphaGo מבית היוצר של Google, ניצחה במשחק הקופסה הסיני, Go, הנחשב מסובך במיוחד, את השחקן האנושי הטוב בהיסטוריה של המשחק.

בשלב זה כבר היה ברור שתבונתה של הבינה המלאכותית חורגת מהמגבלות של המהנדסים שתכנתו אותה, והיא בעלת יכולת לימוד עצמי מתקדמת, המשיגה את זו של יוצריה.

האם משמעות הדבר שהמחשב, הרובוט או התוכנה הם "אינטליגנטיים" כך שהם יכולים "לבחור", "להחליט", "להסיק", "להבחין", להבין רעיונות מורכבים ולחשוב בהיגיון? כדי לענות על השאלה הזאת, הפילוסוף האמריקאי ג'ון סרל (John Searle)  הגה את מבחן "החדר הסיני", המתבסס על סמיוטיקה (חקר הסימנים) כדי להעריך האם מכונות ניחנו באינטליגנציה, וזאת על יסוד ההנחה שזו דורשת "הבנה". לטענתו, מחשב המונח בחדר מסוגל לקבל קלט בשפה סינית ולהפיק פלט בשפה אחרת, אנגלית למשל. אולם, תוצאה זו עשויה לנבוע מיכולתו של המחשב להתאים תמונה אחת (תו או אות סיניים) לתמונה אחרת (מילה או משפט באנגלית), ולפיכך אין בכך כדי להעיד כי המחשב אכן מבין סינית.

עד כמה שזה עשוי להישמע נדוש, ניתן לחשוב על AI כמכונת חיזוי שתפקידה לצפות את הצעד הבא או לספק את התשובה הכי סבירה מבחינה סטטיסטית, בהסתמך על נתונים קודמים אליהם היא נחשפה, והדבר מומחש על ידי קטע מתוך ריאיון עם מארק סולמס (Mark Solms), נוירופסיכולוג דרום אפריקאי, שפורסם במגזין המדע Nautilus בשנת 2021 תחת הכותרת "תודעה היא רק תחושה":

The only point of learning from past events is to better predict future events. That’s the whole point of memory. It’s not just a library where we file away everything that’s happened to us. And the reason why we need to keep a record of what’s happened in the past is so that we can use it as a basis for predicting the future. And yes, the hippocampus is every bit as much for imagining the future as remembering the past. You might say it’s remembering the future.

על אף שהיישומים הנשענים על טכנולוגיית AI צומחים בצורה אקספוננציאלית, הם מיועדים בעיקר לביצוע משימות ספציפיות (generative AI) – כגון צ'טבוט הבינה המלאכותית המדובר ChatGPT וכלי הבינה המלאכותי DALL-E שמייצר תמונות מתיאור מילולי – ולא ליצירת חיים אינטליגנטיים חלופיים.

הפוטנציאל הטמון באפליקציות הללו הוא אינסופי אבל חרף הבאז הטכנולוגיה לא חפה מבעיות, ובתמצית ניתן למנות את הקושי שלהן להתמודד עם כמות הולכת וגדלה של עבודה שלא בתנאי מעבדה (סקלביליות); את הקושי להגיב לאירועים לא צפויים (חוסן); ואת הקושי לפתור בעיות בזמן אמת (היענות או תגובתיות).

אלו רק הקשיים הטכניים. ל-AI נלוות גם בעיות מסוג אחר: חברתיות ומשפטיות, ובהן נעסוק בהרחבה ברשימות הבאות.

Stay tuned.

כתיבת תגובה

האימייל לא יוצג באתר. שדות החובה מסומנים *