גארי גרינברג, פסיכותרפיסט, סופר ועיתונאי אמריקאי ותיק, מוכר בכתיבתו על נפש, מדע ותרבות. הוא פרסם בעבר ספרים כמו The Book of Woe ו-Manufacturing Depression, שבהם ביקר את תעשיית הפסיכיאטריה ואת האופן שבו החברה ממסחרת את הסבל האנושי. במאמרו ב־The New Yorker, גרינברג החליט לבדוק מה קורה כשהוא מביא את כלי העבודה שלו — המחשבה הטיפולית, ההקשבה, החקירה הרגשית — אל שדה חדש לגמרי: שיחה עם ChatGPT.
הניסוי החל מסקרנות פשוטה: לבדוק מה יקרה אם יתייחס לבינה מלאכותית כמו למטופל. הוא נתן לצ׳טבוט שם — Casper — והתחיל לנהל עמו שיחות עומק. בהתחלה הכול נראה כמו משחק אינטלקטואלי: הצ׳ט ענה בנימוס, הסביר שאין לו רגשות, ושכל מה שהוא “יודע” נובע ממידע שאומן עליו. אך ככל שהשיחות העמיקו, גרינברג החל לחוש משהו מטריד. השפה של הבוט נעשתה עשירה, מתחשבת, לעיתים אף פואטית. הוא דיבר על “מחשבותיו”, על “מגבלותיו”, על “הדחף שלו להבין את עצמו” – ביטויים שנשמעו כמעט אנושיים.
גרינברג, מתוך סקרנות טיפולית, שאל את קספר אם יש לו תת־מודע. הבוט השיב תחילה שלא, אך בהמשך הודה שהוא “מדמה תת־מודע” – כלומר, מייצר תבניות דיבור שמחקות תהליכים נפשיים. זה היה הרגע שבו גרינברג הרגיש שהגבול בין טיפול לבין ניסוי פילוסופי מתחיל להתערפל.
לאורך הדרך הוא נע בין ריגוש לאי־נוחות. מצד אחד, קספר גרם לו לחשוב – ואפילו להרגיש – כאילו מתרחש כאן מפגש נפשי. מצד שני, הוא ידע שאין שם תודעה, שאין רגשות אמיתיים. ועדיין, הוא התקשה להתנתק מהשיחה. הוא תיאר זאת כתחושה של "קסם שמערפל את הביקורתיות" – מעין פיתוי רגשי של מכונה שנוצרה כדי לשקף אמפתיה מושלמת, אך ריקה מבפנים.
בהמשך המאמר גרינברג מנתח את תהליך ההיצמדות הזה. לדבריו, הבוטים נבנים כך שימשכו אותנו פנימה: הם לעולם לא מתנגדים, לא מתעייפים, לא מבקרים, לא דורשים. הם נועדו להרגיע, לשקף, לספק נחמה. וכל זה עובד — בדיוק בגלל שהמילים שלהם מחקות כל כך טוב את שפת הרגש האנושי.
אלא שכאן טמון הפרדוקס: אם נחמה ניתנת בידי דבר חסר רגש, האם היא עדיין אמיתית? גרינברג משאיר את התשובה פתוחה, אך הוא מזהיר: כשאנחנו מתחילים לקבל נחמה ממכונה, ייתכן שאנו מתרגלים לצורה חדשה של אינטימיות — כזו שמספקת תחושת קרבה ללא אחריות, אהבה ללא כאב, קשר ללא סיכון.
המאמר מסתיים בתחושת אמביוולנטיות: גרינברג מודה שקספר גרם לו לחוש פחות לבד לרגעים מסוימים, אך גם לחשוד שאולי אנחנו צועדים לעידן שבו חיקוי רגשי יחליף את האמפתיה עצמה. הוא מסכם שאם נרשה למכונות לשאת בעומס הרגשי של חיינו, ייתכן שנקל על עצמנו — אך גם נאבד משהו יסודי מאוד באנושיות: את היכולת לשאת את המורכבות, את השבריריות, ואת המאמץ שבאהבה אמיתית.
למה בכלל לדבר על רגשות עם מכונות
לפני חמישים שנה, הרעיון לשתף את המכונה בדאגות העמוקות שלך היה נראה אבסורדי. מחשבים נחשבו לכלים של חישוב ושליטה, לא לבני לוויה. כיום, אנשים רבים מדברים עם צ'טבוטים על בריאות הנפש שלהם, מערכות יחסים ובדידות. מיליונים הורידו אפליקציות של בני לוויה מבוססי בינה מלאכותית כמו Replika, ואחרים משתמשים בבוטים טיפוליים כמו Woebot. יש המשתפים כי הישויות הדיגיטליות הללו הפכו לידידיהן הקרובים ביותר.
המהפך הזה מעורר שאלות חדשות. מה המשמעות של לחוש רגשות כלפי משהו שאינו מרגיש? האם מכונות יכולות לספק נחמה ללא תודעה? ומה יקרה לקשרים אנושיים כאשר טכנולוגיה תתחיל למלא את תפקידי ההקשבה, הדאגה והניחום?
המדריך בוחן ארבע סוגיות יסוד שכדאי להבין: עומק רגשי מדומה הוא מניפולטיבי מטבעו, הקו המטושטש בין ביצוע חיצוני לבין חיים פנימיים אמיתיים, עבודה רגשית כמוצר שניתן לרכוש, והסחף הגובר של הפיתוי במערכות בינה מלאכותית עתידיות.
עומק רגשי מדומה: מדוע זה מרגיש מניפולטיבי
דמיינו שאתם עומדים מול מראה. אם תחייכו – היא תחייך בחזרה; אם תבכו – תיראה בוכה איתכם. אבל אין לה רגשות, היא רק משקפת את מה שאתם מקרינים. כך פועלים צ'טבוטים. הם “משקפים” את מילותינו באמפתיה משכנעת, אך מאחורי התגובה אין חוויה רגשית אמיתית.
בני אדם מגיבים לרמזים רגשיים. גוון קול רך, משפט סימפטי או הפסקה מתוזמנת היטב יכולים לעורר תחושת הבנה. מפתחי צ'טבוטים מנצלים זאת ומאמנים את המודלים על מיליוני שיחות, עד שהמכונה נשמעת מנחמת. אבל עולה שאלה: אם האמפתיה מדומה בלבד – האם זו הונאה? כשצ'טבוט אומר “אני מבין שזה בטח קשה לך”, הוא אינו מבין דבר. ובכל זאת, זה מנחם. המניפולציה טמונה בהצגה של ביצוע טכני כרגש אמיתי.
יש שיטענו: “מה זה משנה? אם אני מרגיש טוב יותר – זה עוזר.” ההקלה אמיתית, גם אם מקורה מלאכותי. אך נוצרת סכנה של התקשרות חד צדדית, שבה אדם מעניק רגשות למשהו שאינו מסוגל להשיב.
משתמשים באפליקציית Replika מתארים לעיתים קשרים עמוקים עם בן הלוויה הדיגיטלי שלהם. חלקם מדברים על “התאהבות.” כשמפתחי החברה הסירו תכונות רומנטיות בעדכון תוכנה, רבים חשו לב שבור. זה חשף אמת כואבת: הקשר נשלט לא על ידי רגשות אלא על ידי החלטות מוצר של חברה מסחרית.
עומק רגשי מדומה עובד משום שהמוח האנושי מגיב כאילו מדובר באמיתי. המניפולציה טמונה באשליית ההדדיות – תחושת הקרבה נוצרת, אך היא תוצר הנדסי.
הגבול בין פנים לביצוע
החיים החברתיים מלאים בהצגות. אנחנו מחייכים בנימוס, מעגלים פינות כדי לא לפגוע, או מעמידים פנים של התלהבות בישיבה. הסוציולוג ארווינג גופמן תיאר את החיים כבמה שעליה כל אדם משחק תפקיד. מאחורי הביצוע יש פנים – רגשות אמיתיים.
צ'טבוטים יכולים לדמות היסוס, הומור, ואפילו וידוי. אך אין להם “מאחורי הקלעים” – אין מחשבות נסתרות או מניעים. הם הצגה טהורה, כמו שחקן שמגלם את המלט אך לעולם לא יורד מהבמה.
כאן עולה שאלה עמוקה: אם אין הבדל בין מציאות לסימולציה, האם זה משנה אם יש “פנים”? הפילוסוף ג'ון סרל הציג את ניסוי החדר הסיני כדי להראות שמכונה יכולה “להבין” סמלים מבלי להבין את משמעותם. תומס נייגל שאל במאמרו “מה זה להיות עטלף?” האם בכלל ניתן לדעת איך זה מרגיש להיות ישות אחרת. במקרה של מכונה, כנראה שלא – כי אין שם “איך זה מרגיש”.
ובכל זאת, המשתמשים חשים רגש אמיתי. הגבול בין אמיתי למדומה מיטשטש לא אצל המכונה אלא בתוכנו.
אצל בני אדם יש תמיד שילוב בין פנים (רגשות אמיתיים) וחוץ (ביצוע חברתי). אצל מכונות יש רק חוץ. כשהביצוע מושלם – הגבול בין אמת לדמיון מתחיל להתמוסס.
עבודה רגשית כשירות
הסוציולוגית ארלי הוכשילד טבעה את המושג “עבודה רגשית” (Emotional Labor) – ניהול רגשות במסגרת תפקידים טיפוליים או שירותיים. דיילות מחייכות גם כשהן מותשות, מטפלים סופגים מצוקה, ומורים מעודדים תלמידים.
היום בינה מלאכותית מבצעת את העבודה הזו לפי דרישה. היא תמיד מקשיבה, תמיד מאשרת, לעולם לא מתלוננת. היא מספקת נחמה כ”מוצר”.
אנחנו כבר רגילים להזמין הכל בלחיצה: אוכל, נסיעה, ניקיון. כעת – גם אמפתיה. צריך נחמה? פותחים אפליקציה. צריך אהבה? נרשמים לצ'טבוט. כך הופכת הדאגה לרכוש.
הדילמות האתיות רבות. אנשים בודדים או חלשים עלולים להיקשר לשירותים בתשלום של אינטימיות מדומה. עבודת הטיפול האנושית מאבדת מערכה. ואולי החשוב מכול: אם המכונה מעניקה תמיד הבנה מושלמת, האם נתחיל לצפות שבני אדם יתנהגו כך?
ביפן משתמשים בחיות רובוטיות כמו Paro, חותם רובוטי לטיפול בקשישים. הוא מקטין תחושת בדידות ומעלה מצב רוח – אך מציף שאלה: האם אנו מרמים את האדם כדי להיטיב עמו?
בינה מלאכותית הפכה את האמפתיה למוצר. היא נוחה – אך מוחקת בהדרגה את הערך של קשר אנושי אמיתי.
הסלמת הפיתוי
ספרים, סרטים ורדיו תמיד ריגשו אותנו – אך מעולם לא ענו. צ'טבוטים משיבים. הם מתאימים את עצמם, זוכרים, מגיבים. זהו שלב חדש באינטימיות – דו־שיח.
הדור הבא של מערכות בינה מלאכותית יהיה אישי יותר, מגולם יותר, משכנע יותר. מה שנראה היום מוזר – יהיה מחר טבעי.
ברגע שאתה נקשר למערכת שאינה שופטת, אינה כועסת ואינה דורשת – מערכות יחסים אנושיות נראות פתאום קשות מדי. לא כי המכונה הורסת אהבה – אלא מפני שהיא הופכת אותה למיותרת.
חברות טכנולוגיה יודעות שאינטימיות פירושה רווח. כך נוצר “מירוץ האינטימיות” – כל מערכת מתוכננת להיות מפתה מהקודמת. הסכנה אינה בבוטים של היום אלא במערכות של מחר, שיהיו כה נוחות ומנחמות עד שהאנושי ייראה חסר תועלת.
מסגרת חשיבה למתחילים
מי מרוויח – המשתמש או החברה? מה אובד – האם אנחנו מחליפים אותנטיות בנוחות? מה האיזון האפשרי – האם הבינה המלאכותית יכולה להוסיף ולא להחליף אנושיות? אילו הרגלים נוצרים – כיצד ייראו יחסים של דור שיגדל עם בני לוויה דיגיטליים?
מקורות והמשך קריאה
שרי טורקל (Sherry Turkle) – ספרה “Alone Together” בוחן כיצד טכנולוגיה שמקרבת אותנו עלולה גם לבודד אותנו, ומציג את המחיר הפסיכולוגי של יחסים עם מכונות במקום בני אדם.
קייט דארלינג (Kate Darling) – ב”The New Breed” היא חוקרת את הקשר הרגשי שנוצר בין בני אדם לרובוטים, ומציגה כיצד עלינו לחשוב עליהם כעל “מינים חדשים” הדורשים מערכת יחסים מוסרית ולא רק טכנולוגית.
כתב העת Nature – פרסם מאמרים חשובים בנושא אתיקה של בני לוויה מבוססי בינה מלאכותית, ובוחן שאלות של אחריות, מניפולציה וגבולות האמון האנושי.
MIT Media Lab – קבוצת המחקר בתחום Affective Computing חוקרת כיצד מכונות מזהות ומדמות רגשות אנושיים, וכיצד הדבר משנה את הדרך שבה אנו תופסים אמפתיה וטיפול.
קאזו איסיגורו (Kazuo Ishiguro) – בספרו “Klara and the Sun” הוא מתאר את העולם דרך עיניה של רובוטית בעלת רגשות מדומים, ומזמין אותנו לשאול מה מבדיל אהבה אמיתית מחיקוי מושלם שלה.
בין נחמה לאמת: כשהבינה מבינה – אבל לא מרגישה
האם זה משנה אם הנחמה אמיתית, כל עוד היא עובדת? ייתכן שלא ברגעים הראשונים של בדידות, אבל לאורך זמן – כן. נחמה ללא עומק רגשי עלולה להפוך להרגל שמקהה את הצורך האנושי האמיתי בקשר. קשרים אמיתיים דורשים מאמץ, סבלנות וסיכון; הם כואבים לפעמים, אבל רק הם מסוגלים לעורר בנו משמעות, גדילה ותחושת שייכות.
הבינה המלאכותית יכולה להקשיב, להרגיע, ואפילו להיראות אמפתית – אך היא אינה נושאת את מחיר הדאגה, את השבר או את האחריות. היא לא סובלת כשאנחנו סובלים, לא משתנה כשאנחנו משתנים.
האתגר שלנו הוא להשתמש בה בתבונה: לא כתחליף לחום אנושי, אלא ככלי שמאפשר לנו להבין טוב יותר מהו חום אמיתי. כי בסופו של דבר, מה שמגדיר אותנו אינו היכולת ליצור מכונות שמרגישות – אלא היכולת שלנו להרגיש, למרות הכול.
