ההרצאה השבועית של TED: בינה מלאכותית אמורה לדעת הכול, אך אסור שתדע זאת


קצב התפתחות הבינה המלאכותית גדל באופן מסחרר ובתוך זמן קצר תחזיות מזהירות כי ייתכן שלא נוכל כבר לשלוט עליה. האם וכיצד נוכל לבנות עתיד בטוח ומאוזן לאנושות לצד המכונות?


ירדן להבי | 1 יוני, 2023

מזה שנים רבות שהוגי דעות, יוצרים בסוגת המדע הבדיוני ומומחי טכנולוגיה מזהירים מעלייתן של המכונות. החשש הוא שהבינה המלאכותית והרובוטיקה ישתפרו עד כדי כך שיכולותיהן יתעלו על שלנו, מה שיגרום להחלפת עובדים אנושיים במכונות ויוביל לאבטלה חמורה, או גרוע מכך – מכונות שיקומו על יוצריהן וישתלטו על האנושות.

האם אכן עלינו לחשוש מאבטלה טכנולוגית או מכך שבינה מלאכותית תנוון את בני האדם? האם ניתן לבנות עולם שבו בני האדם יוכלו לחיות בהצלחה לצד טכנולוגיה סופר מתקדמת, אבל מועילה?

בסרטון מבית TED נערכו קטעים נבחרים מתוך ריאיון של הפורום הכלכלי העולמי עם סטיוארט ראסל, פרופסור למדעי המחשב ומומחה לבינה מלאכותית, ובו הוא מבקש לעשות סדר בין אמת לבדיה.

החוכמה היא לדעת שאי אפשר לדעת הכול

"כל מה שאני יודע הוא שאיני יודע". המשפט המיוחס לסוקרטס רלוונטי במיוחד כשמדובר בבינה מלאכותית. לפי ראסל, עצם ההבנה שאין בידינו את כל המידע ואת כל התשובות היא מאפיין חשוב בהתנהגות האנושית והמפתח להשארת השליטה האנושית במערכות AI.

כיום יש הבדל גדול בין הדרך שבה אנו מגדירים מטרה לאדם ובין הדרך שאנחנו מגדירים מטרה ל-AI. "כשאתה מבקש מאדם לרדת להביא לך כוס קפה, אתה לא מתכוון שזו צריכה להיות משימת חייו ושום דבר אחר ביקום לא משנה, ושגם אם הוא ייאלץ להרוג את כל האחרים בתור בסטארבקס בכדי להביא לך את הקפה לפני שהוא נסגר –  זה מה שעליו לעשות". אנחנו יודעים, והוא יודע, שלא זו הכוונה ושיש להפעיל שיקול דעת בביצוע המשימה.

לעומת זאת, לבינה מלאכותית אין שיקול דעת שכזה. כיום, בשביל שמערכת AI תוכל להשלים משימה בהצלחה, היא צריכה לדעת את המטרה במלואה על כל תנאיה ואת התשובות לכל השאלות שעלולות לצוץ בדרך, אחרת עלולות לצוץ כמה השלכות מאוד לא רצויות.

זוכרים את מחשב העל "האל 9000" מהסרט 2001: אודיסיאה בחלל? בשלב מסוים הוא החליט שהחלטות האסטרונאוטים שהוא מלווה עשויות לפגוע בהשלמת המשימה שהוגדרה לו ולכן הוא פעל כדי לחסל אותם. באופן דומה, מדגים ראסל, אם למשל נבקש מ-AI לתקן את בעיית העלייה בחומציות מי האוקיינוסים שנגרמת עקב ריבוי פחמן דו חמצני, "עלולה להתקבל תגובה גורפת שתעשה את זה ביעילות רבה, אבל תצרוך רבע מכמות החמצן באטמוספרה, מה שכנראה יגרום לנו למוות די איטי ולא נעים תוך מספר שעות". כמובן שאף אחד לא רוצה בכך, אז הדרך להימנע מהבעיה היא להגדיר מראש יוצאים מהכלל לתוצאות אפשריות כמו "תשאירו את החמצן באטמוספרה" או "אל תרעילו את כל הדגים בתהליך", "אל תעשו דבר שיפגע באצות", וכן הלאה.

"'כשבונים מכונות שמאמינות בוודאות שיש להן את המטרה במלואה, אז מקבלים סוג של התנהגות פסיכופתית, כמו היפטרות מהחמצן באטמוספרה, חיסול כל הדגים בים או שאר האנשים בתור בבית הקפה, וזה בעצם מה שאנו חוששים ממנו".

הבעיה היא כמובן שאנחנו בעצמנו לא יודעים לצפות את כל התרחישים ואת כל התוצאות וההשלכות הלא רצויות שעשויות להיגרם מפקודות שלנו. "הסיבה שאנחנו לא צריכים להגדיר את כל הדגשים האלו עם בני אדם", מסביר ראסל, "היא שבני אדם יודעים לעיתים קרובות שהם לא יודעים את כל הדברים שאכפת לנו מהם". שיקול הדעת של אדם לוקח בחשבון התחשבות בהעדפותיו של אדם אחר בעת השלמת המשימה, גם אם לא הגדירו אותן עבורו באופן ספציפי. ומכיוון שבני אדם יודעם שהם לא יודעים בוודאות את רצונותיהם של אחרים, אם שלחנו מישהו למשימה והוא נתקל בקושי, התלבטות או שאלה – סביר להניח שהוא יעצור להתייעץ וישאל לדעתנו לפני שיתקדם, או שיבקש את רשותנו לבצע סטייה קלה מהתוכנית המקורית.

קחו למשל כמה דוגמאות למשימות שאנו מבקשים מאדם אחר לעשות עבורנו, מבקש ראסל, כמו הבאת כוס קפה מבית הקפה שמתחת לבניין או צביעת קירות ביתכם. אם במקרה הבניין שאתם נמצאים בו הוא מלון אירופאי יוקרתי, ובית הקפה שבלובי גובה 13 יורו לכוס טייק-אווי, יהיה זה מתבקש לחלוטין אם אותו חבר יתקשר לעדכן אתכם במחיר וישאל אם אתם מעדיפים שיביא את הקפה מהסטארבקס שמעבר לפינה. באופן דומה, צבעי שיגיע לביתכם ויבחין בצינורות מרזב, לא פשוט יצבע את הקירות יחד עם המרזבים. לגמרי הגיוני לצפות שיבקש את רשותכם לפרק את המרזבים ולהתקין אותם בחזרה בתום הצביעה. כך, הסיכון לתוצאות לא רצויות קטן.

המפתח לכך הוא עצם היכולת שלנו להבין ולהשלים עם העובדה שאנחנו לא יודעים את כל התשובות ואת התנאים המלאים למטרה – אז אנחנו שואלים. אנחנו לא רואים בכך יכולת מתוחכמת במיוחד, אבל למערכות ממוחשבות פשוט אין אותה. "אם נבנה מערכות שיודעות שהן לא יודעות מה המטרה, אז הן יתחילו גם להציג התנהגויות כאלו, כמו לבקש מאיתנו רשות לפני שהן נפטרות מכל החמצן באטמוספרה", מסביר ראסל. "בכל המובנים האלה, שליטה על מערכת הבינה המלאכותית נובעת מאי-הוודאות של המכונה לגבי המטרה המלאה. כשבונים מכונות שמאמינות בוודאות שיש להן את המטרה במלואה, אז מקבלים סוג של התנהגות פסיכופתית [כמו היפטרות מהחמצן באטמוספרה, חיסול כל הדגים בים או שאר האנשים בתור בבית הקפה]", וזה בעצם מה שאנו חוששים ממנו. זה עדיין לא יהיה שיקול דעת אנושי, אבל לפחות יהיו רסנים. ענווה מלאכותית לבינה מלאכותית.

לפי ראסל לפחות, נראה שכל עוד נדאג ללמד מערכות AI להבין שהן לא יודעות הכול ושעליהן להתייעץ איתנו בדרך להשגת מטרה, אנחנו לא צריכים להיות מוטרדים מהשתלטות עוינת של מכונות. אבל מה בדבר השפעתן על הכלכלה ועל שוק העבודה? האם המשרות שלנו בסכנה?

להמשיך את השרשרת

אם נחזור לדבריו של פילוסוף יווני ידוע אחר, ראסל מספר שכבר ביוון העתיקה סבר אריסטו שאוטומציה מלאה – כמו מכונת אריגה עצמאית או נבל שפורט על עצמו – תכחיד את הצורך בעובדים. ב-1930 החשש קיבל שם: אבטלה טכנולוגית. והחשש הזה, לדברי ראסל, מוצדק.

קחו לדוגמה את המחסנים שפועלים עבור חברות המסחר האלקטרוני. כיום הם חצי אוטומטיים: אם צריך לשלוף פריט אחד מבין טונות הדברים שנמצאים במחסן, ישנו רובוט שהולך ומביא את יחידת המדפים הרלוונטיים, ואז בן אדם בוחר את הפריט הרצוי מתוך המדף. ברגע שיפותח רובוט מדויק מספיק בשביל לבחור גם את הפריט המסוים מבין האחרים, יימחו בהינף יד 3 או 4 מיליון מקומות עבודה.

מעבר להיבט הכלכלי, ישנן השלכות נוספות לכך שהאנושות תסתמך לגמרי על מכונות. ראסל מזכיר את עלילתו העתידנית של סרט האנימציה Wall-E, שם בני האדם התנוונו עד כדי כך שאינם מסוגלים לנוע או לאכול בעצמם ולמעשה מתפקדים כמו תינוקות מגודלים. אומנם זהו תרחיש מוקצן, אך האם עתיד דומה שבו אנו תלויים לחלוטין במכונות יכול להתקיים?

"כשאתם מוסרים את תפקיד ניהול הציוויליזציה שלכם למכונות, אתם מאבדים את התמריץ להבין אותו בעצמכם או ללמד את הדור הבא איך להבין אותו. אם תחשבו על זה, מדובר בבערך טריליון שנות אדם של הוראה ולמידה בשרשרת רצופה שחוזרת לאחור עשרות אלפי דורות. מה יקרה אם השרשרת הזו תישבר? לכן עלינו תמיד ללמד את הדור הבא".

עד כה, מסביר ראסל, תרחיש כזה לא היה אפשרי. עם זאת, קצב הפיתוח של AI למטרות כלליות (כמו ChatGPT  למשל) הולך וגדל. זהו תהליך הדרגתי, ובו עם ההתקדמות הטכנולוגית יחלוש ה-AI על יותר ויותר משימות. מומחים בתחום חוזים שעד סוף המאה כבר סביר מאוד שיהיו מערכות AI מתקדמות ויעילות למטרות כלליות. אז היכן אנחנו משתלבים לצידן? ואיך מוודאים שלא ניוותר בעמדת נחיתות לעומתן?

לדברי ראסל, התשובה כנראה תלויה באופן שבו האנושות תבחר להתנהל ולנהל את עצמה בשנים האלו. "כשאתם מוסרים את תפקיד ניהול הציוויליזציה שלכם למכונות, אתם מאבדים את התמריץ להבין אותו בעצמכם או ללמד את הדור הבא איך להבין אותו". הוא אומר. "אם תחשבו על זה, מדובר בבערך טריליון שנות אדם של הוראה ולמידה בשרשרת רצופה שחוזרת לאחור עשרות אלפי דורות. מה יקרה אם השרשרת הזו תישבר? […] אנחנו מכניסים הרבה מהציוויליזציה שלנו לתוך ספרים, אבל הם לא יכולים לנהל אותה עבורנו. ולכן עלינו תמיד ללמד את הדור הבא".

ואולי בכלל השאלה שאנחנו צריכים לשאול את עצמנו היא אחרת. אנחנו לא יכולים למנוע את המהפכה, היא כבר החלה להתרחש. השאלה היא כעת איך אנחנו יכולים לבנות עתיד מאוזן לצד המכונות. אם בינה מלאכותית נמצאת עכשיו בחיתוליה, אולי זהו הזמן הטוב ביותר לדאוג לחינוך שלה לפני שהיא מתבגרת והופכת לחזקה מאיתנו. אחרי הכול, ל-AI יש רק מקור אחד ממנו היא יכולה ללמוד: אנחנו. וכהורים, ייתכן שכל שנותר לנו לעשות הוא לשמש לה דוגמה, ללמד אותה כמה שיותר חמלה, אדיבות וענווה כדי שבעתיד היא תנהג כלפינו באופן דומה, בדיוק כמו שהיינו נוהגים ומצפים מילדינו האנושיים.

כתבות נוספות שעשויות לעניין אותך:

הרשמה לניוזלטר של מהות החיים

קיבלנו! תוכן מעורר השראה מבית מהות החיים יגיע אליכם במייל ממש בקרוב.