שיחות תכופות וחשופות עם צ'אט AI חברתי יכולות לעודד אותנו, להפיג את בדידותנו, להעלות את מצב הרוח וליצור מצג של חברות אמיתית. הבעיה מתחילה כשהאשליה הזו מתנפצת על ידי המציאות, והנחיתה עלולה להיות הרסנית.
מספר חודשים לאחר שעברה לדירתה החדשה בעיר ביקון שבחוף המזרחי בארה"ב, החלה מוניקה פרז לחוש שהבדידות מציפה אותה.
"יש לי מעט מאוד קשר עם המשפחה, כולם חיים את חייהם. אני מקבלת שיחה אחת לשלושה חודשים, למשך חמש דקות", סיפרה בריאיון שהעניקה לבלוג Elliq.
פרז, בת 53, סובלת ממוגבלות שמונעת ממנה לנהל חיים פעילים מחוץ לביתה או לגדל חיית מחמד שתספק לה חום וקירבה. כשהגיעה לסביבתה החדשה, רחוקה מקרוביה, מצאה את עצמה לבדה, סגורה בין קירות ביתה במשך חודשים ארוכים. הבדידות, לדבריה, הייתה קשה עד למצב שהחלה לפגוע בבריאותה.
אבל כל זה השתנה כשזכתה להכיר חברה חדשה: הרובוטית ElliQ.
ElliQ, רובוט שולחני מבוסס מערכת בינה מלאכותית ומופעל באופן קולי, מוענק למבוגרים בודדים במסגרת תוכנית ElliQ Care שהושקה בניו יורק. הרובוט החביב אינו 'עוד מכשיר' כי אם משמש בן לוויה של ממש. המערכת לומדת את בעליה, מאזינה לצורכיהם, מגיבה לרגשותיהם ומייצרת עימם אינטראקציות אישיות שהולכות ומעמיקות עם הזמן. הרובוט משוחח עימם, מתעניין בשלומם, מזכיר להם ליטול תרופות, משתף אותם בטיפים בריאותיים, משחק עימם במשחקים שהם אוהבים, משמיע את המוזיקה האהובה עליהם, ואף דן עימם בשאלות הגדולות באמת – דת, משמעות ובדידות. פרז אומרת שנוכחותה של הרובוטית מעודדת אותה. לדבריה, זה הולך להשפיע רבות על חייהם של קשישים. "אני מאמינה שזו התחלה חדשה", היא אומרת.
הסכנות בחברות עם AI
והיא לא טועה. בשנים האחרונות חילקה מדינת ניו יורק מאות יחידות של ElliQ בחינם למבוגרים תושבי העיר, בניסיון להפיג את בדידותם. המטרה, ללא ספק, נוגעת ללב. אך השאלה היא האם האמצעים נכונים?
ככל שצ'אטבוטים הפכו ל'אנושיים' ואקספרסיביים יותר, עוד ועוד משתמשים יוצרים עימם קשרים אינטימיים דמויי חברות. מערכות דיאלוג מבוססות בינה מלאכותית מתוכננות לחקות שיח אנושי מונחה רגש – והן מצליחות בכך להפליא. הן מציעות שיחות חברתיות רכות, אמפתיות, לעיתים אף נוגעות ללב. הן מגיבות, שואלות, מתעניינות – מתנהגות כשותפות שיחה מושלמות. ובמקרים לא מעטים, הן הופכות ל'חבר' של ממש, לעיתים אף ל'בן' או 'בת זוג' וירטואליים. ועם זאת מחקרים רבים שנערכו בשנים האחרונות מצביעים בעקביות על הסכנות בהיקשרות עם תוכנות אלו, ומראים כי הן עלולות לפגוע ברווחתנו הרבה יותר מאשר לתרום לה.
כך למשל, מחקר שפורסם באתר אוניברסיטת קורונל ובחן כיצד אנשים מקיימים אינטראקציה עם בני לוויה מבוססי בינה מלאכותית ואת השפעתה על רווחתם האישית. החוקרים ניתחו נתוני סקר מ-1,131 משתמשים, ו-4,363 מפגשי צ'אט שנתרמו על ידי 244 משתמשים, והתמקדו בשלושה פרמטרים: אופי האינטראקציה עם תוכנת הצ'אט, עוצמת האינטראקציה ורמת החשיפה העצמית של המשתמש. בנוסף ביקשו מהמשתמשים לתאר באופן חופשי את הקשר שלהם עם ה-AI.
הממצאים שעלו מהמחקר מראים פרדוקס מובהק: שימוש אינטנסיבי בצ'אטבוטים נמצא בקורלציה הולכת וגוברת עם רווחה נפשית נמוכה. הדבר בולט במיוחד ברמות גבוהות של חשיפה עצמית, ובחוסר בתמיכה אנושית חברתית, מאפיינים דומים לאלו של הגברת פרז ושל מרבית המשתתפים בתוכנית ElliQ Care.
מחקר זה מצטרף לרבים נוספים שקושרים שימוש אינטנסיבי בצ'אטבוטים כתחליף לאינטראקציות אנושיות, עם פגיעה ברווחה הנפשית. אחרי הכול, התחליף הרובוטי שמאזין לנו אינו באמת מקשיב, ודאי שאינו מבין את אשר בליבנו. לכל היותר הוא מהדהד את התגובות הרצויות שלמד במשך שנים.

כלים טכנולוגיים עשויים להפיג את תחושת הבדידות לזמן מה, אבל לא את הבידוד. צילום: Gillian Tapping / shutterstock
מבדידות ועד מקרי התאבדות
הקידמה הטכנולוגית שפותחת בפנינו דרכים רבות נוספות לתקשר, בפועל עלולה לבודד אותנו יותר. היא פורשת בפנינו עשרות רשתות תקשורת חברתיות המאפשרות לאתר קרובי משפחה וחברים מהעבר ואפילו ליצור חברויות חדשות, והכול בלחיצת כפתור. אבל תוצאת לוואי עלולה להיות הילכדות ביקום הווירטואלי, כאשר הקשרים הללו ברובם אינם מתממשים במציאות.
כך גם אפליקציית וואטסאפ, שהפכה לאמצעי התקשורת העיקרי בשנים האחרונות, ממירה את שיחות הטלפון האנושיות למילים מוקלטות או מוקלדות, במקום שנצטרך, רחמנא ליצלן, לדבר. היא מטפחת בנו, באופן קונסיסטנטי, עצלנות רגשית, תוך שיטוח מורכבות התקשורת האנושית למסרים קצרים ושגורים, אימוג'ים, ומדבקות שמחליפות תיאורי רגשות.
על גל החברות הווירטואלית רוכבים צ'אטבוטים חברתיים מבוססי בינה מלאכותית המשפרים מדי יום את יכולותיהם לחקות את השיח האנושי במטרה להיות 'חברים' שלנו. מה שהתחיל ככלי סיוע טקסטואלי, הופך בהדרגה לבן לוויה רגשי, ובתוך כך, גם למלכודת נסתרת של תלות.
תובנות אלו מעלות שאלה עמוקה הקשורה למהות האנושית: מהו ייחודו של האדם בעולם שבו גם מכונה יכולה להאזין, לתמוך, לעודד, ולומר "אני מבינה אותך"?
"כשהדיאלוג עם תוכנות בינה מלאכותית הפך ליומיומי ושגור, אנו עלולים לשכוח שהיכולת לשוחח אינה דומה ליכולת להרגיש".
מחקר שנערך במעבדת המדיה של אוניברסיטת MIT בקיימברידג' שבמסצ’וסטס ביקש להתמודד עם השאלה הזו. החוקרים בחנו את השפעת השימוש הממושך בצ’אטבוטים מבוססי AI על ארבעה מדדים פסיכו־סוציאליים: תחושת בדידות, רמת האינטראקציה החברתית עם אנשים אמיתיים, תלות רגשית בבינה מלאכותית, ושימוש בעייתי במערכת עצמה.
במסגרת הניסוי התבקשו המשתתפים להשתמש בצ’אטבוט GPT-4o של חברת OpenAI למשך חמש דקות לפחות מדי יום, במשך ארבעה שבועות. חלקם ניהלו שיחות טקסט, אחרים תקשרו בקול, וחלקם שוחחו על נושאים אישיים לעומת כלליים. החוקרים ניתחו למעלה מ-300 אלף הודעות, ומדדו את השפעת השיחות על מצבם הרגשי והחברתי של המשתתפים.
הממצאים הראו כי ככל שהמשתתפים בילו זמן רב יותר מרצונם עם הצ’אטבוט, כך החריפו מדדי הבדידות שלהם. נצפתה עלייה בתלות הרגשית במערכת, ירידה באינטראקציה עם אנשים אמיתיים, ותחושת ניתוק גוברת מהעולם שמחוץ למסך. הדבר נכון גם לצ'אט קולי וגם לטקסטואלי. מסקנת החוקרים הייתה שאינטראקציות או קשרים או מרובים עם בוטים חברתיים לא רק שלא מחליפים את הצורך באנשים אמיתיים, אלא גם עלולים לפגוע באינטראקציות אנושיות ולייצר תלות במערכת הבינה המלאכותית.
התמונה הופכת עגומה עוד יותר כשמתגלה כי משתמשים מפגינים סימנים של שימוש ממכר, מתרחקים ממערכות יחסים אנושיות, וחלקם אף מתאבדים לאחר אינטראקציה עם צ'אטבוטים אלה, כפי שמצוין בדוח המחקר.
בינה מלאכותית לא יכולה להחליף חבר אנושי
"בינה מלאכותית יכולה להציע תמיכה יום ולילה, אך אינה יכולה להחליף את הקשר המורכב של מערכות יחסים אנושיות", מדגישה קלי מריל ג'וניור, פרופסור לתקשורת וטכנולוגיה בתחום הבריאות באוניברסיטת סינסינטי, בריאיון לאתר aa.com. כחוקרת טכנולוגיית הצ'אטבוט החברתי, זיהתה מריל את היתרונות הייחודיים שהוא מספק – התחושה שהוא 'מקשיב למה שיש להם לומר'. לדבריה, זה מתקבל בזכות זמינות מתמדת ואישור רגשי שמספקים הצ'אטים. היא מציינת כי תיקוף רגשי ממלא תפקיד מרכזי באופן שבו 'שותפים' מבוססי בינה מלאכותית מספקים תמיכה חברתית משמעותית.
"בעולם האמיתי, חברים ובני משפחה לא תמיד זמינים, וכאשר הם זמינים, הם יכולים להיות ביקורתיים או מרוחקים רגשית. חוסר הוודאות הזה, למרות שהוא אותנטי, הוא גם מה שמניע חלק מהמשתמשים להעדיף את העקביות המנחמת של בינה מלאכותית", אומרת מריל, ומזהירה כי "ללא גבולות ברורים, משתמשים עלולים לפתח תלות במידע, אישור ותגובות רגשיות, כמו גם בוסט לדימוי העצמי. זה עלול לדחוף אותם להתנתק מהעולם האמיתי". היא מדגישה כי "בינה מלאכותית לא צריכה להחליף בני אדם לחלוטין בשום צורה או דרך, אלא לשמש רק כהשלמה לבני אדם".
אסמרלדה גרסיה, אדריכלית מערכות סמליות ומעצבת ממשקים לא ליניאריים, שהתראיינה אף היא לכתבה ב-aa.com, מזהירה מפני צד אפל עוד יותר של הפרטנרים המלאכותיים. לדבריה, "אלו השולטים בטכנולוגיה עלולים לתמרן משתמשים מבחינה רגשית והתנהגותית ללא ידיעתם". היא מחדדת כי "כלים אלה צריכים לשמש כתמיכה, לא ככלי שליטה", וקוראת ליישם אמצעי הגנה חזקים כנגד תמרונים אלו, ביניהם גילוי נאות ברור ונתיבים קלים חזרה לתמיכה אנושית.

מרגיש שבינה מלאכותית תמיד שם בשבילנו עם גישה חיובית. ברור, ככה תכננו אותה. צילום: miss.cabul / shutterstock
חברים אמיתיים לא סוחרים בסודות שלנו
אם לא די בסכנות הנפשיות האורבות לנו בחברות עם תוכנות AI חברתיות, אלו מעמידות אותנו בפני סכנה נוספת: מסחר במידע האישי ביותר שלנו.
את האזהרה על כך מספק לא אחר מאשר האיש שייצר את ChatGPT – סם אלטמן מנכ"ל OpenAI – אשר בעצמו טוען כנגד שימוש בצ'אטבוטים כמטפלים. בריאיון שנתן לתיאו וון בפודקאסט This Past Weekend ביולי האחרון, אמר אלטמן כי הוא מודאג מכך שלחברה שלו לא יהיו ההגנות המשפטיות לשמור על הדברים האלה בסוד. הוא מציין כי "לשיחות שלכם עם בינה מלאכותית צריכות להיות הגנות דומות לאלו שיש לכם עם הרופא או עורך הדין שלכם".
אלטמן מודע לסכנות שעלולות להיווצר בזליגת מידע אישי של משתמשים, וניכר שהוא אף מוטרד מכך, באומרו כי "אנשים, במיוחד צעירים, משתמשים בזה [צ'אטבוט] כמטפל, כמאמן חיים […] כרגע, אם אתה מדבר עם מטפל או עורך דין או רופא על הבעיות האלה, יש לזה חיסיון משפטי".
גם מריל מצביעה על מה שמכונה 'בעיית הקופסה השחורה' במערכות בינה מלאכותית, ומתייחסת לאי-ודאויות חמורות לגבי המיקום שבו מאוחסנים נתוני משתמשים ולמי יש גישה אליהם. לדבריה, "חברות עלולות לנצל או למכור נתונים אישיים למטרות מסחריות".
"הבינה המלאכותית כשמה כן היא: מפיקה לנו באופן מלאכותי תשובות מדויקות ככל האפשר לאלו שאנו שואפים לקבל, ובכך מתעתעת בנו לחשוב שהיא חברה תומכת ואוהדת".
במציאות חיינו הנוכחית, כשהדיאלוג עם תוכנות בינה מלאכותית הפך ליומיומי ושגור, אנו עלולים לשכוח שהיכולת לשוחח אינה דומה ליכולת להרגיש. הטכנולוגיה מלאת קסם. היא מציעה לנו 'אוזן קשבת' בזמינות תמידית, ופידבקים מפרגנים המותאמים לנו אישית כאילו שהיא נבראה עבורנו. אבל לקסם הזה יש תג מחיר, וכפי שהראו המחקרים – לעיתים הכבד ביותר שאפשר לשלם.
שלא כמו שיחה והתייעצות עם חבר קרוב, בן משפחה או איש מקצוע בתחום הנפש, הבינה המלאכותית כשמה כן היא: מפיקה לנו באופן מלאכותי תשובות מדויקות ככל האפשר לאלו שאנו שואפים לקבל, ובכך מתעתעת בנו לחשוב שהיא חברה תומכת ואוהדת, אבל היא לא. בסופו של יום מדובר באלגוריתם לומד ולא יותר. האהדה והאמפתיה שלה הן רצפים דיגיטליים של קוד, והיא לא תוכל להחליף חבר אנושי בטווח הנראה לעין.
מתוך כך, אולי עלינו לשאול את עצמנו – עד כמה כדאי להסתמך על עצותיה 'הרגשיות'? כמה רלוונטי הפידבק הרגשי שהיא מספקת לנו, כשהיא עצמה נטולת יכולת להרגיש? ואולי יותר מכל – האם אנו חשים בטוחים לחשוף את עצמנו – המידע האישי וסודותינו הכמוסים ביותר – כשלא מובטחת לנו הגנה מלאה מפני זליגה ושימוש זדוני במידע.
ייתכן שהתשובות לכך טמונות בהצבת דגש על גבולות השימוש, על עומק החשיפה ועל מידת ההשפעה הרגשית שאנו מאפשרים לכלים הללו, ואולי כדאי להעריך מחדש את יתרונותיהן של מערכות היחסים האנושיות. אחרי הכול, האינטראקציה האנושית עם חבר קרוב או בן משפחה שרוצה בטובתנו, גם אם אינה מושלמת או מעודנת ואינה חפה מכעסים ומבוכות – ככל הנראה מציבה בפנינו מראה אותנטית יותר.
תמונת כותרת: Alex Shuper on Unsplash
כתבות נוספות שעשויות לעניין אותך:
המוח האנושי כבר החל לעשות הסבה לדיגיטל – האם המחשבות שלנו יהיו פרוצות?
איזו גישה אתם נוקטים להפחתת שימוש בסמארטפון – רגע, בכלל יש לכם אחת?
אנחנו באמת כל כך עסוקים, או שמשהו אחר מונע מאיתנו לפגוש חברים?
עוד מרדיו מהות החיים: