רגשות, רגשנות ודרמות במערכות היחסים שלנו עם הבינה המלאכותית: מבט פסיכו-אנתרופולוגי
לפעמים, כשאני מתבונן סביב ורואה כיצד אנשים מתנהלים מול טכנולוגיות חדשות, אני נזכר בשיחות שהיו לי לפני כשלושים שנה עם מטופלים ועמיתים, כשניסינו לחזות כיצד המחשבים והאינטרנט ישפיעו עלינו מבחינה נפשית. איש מאיתנו לא דמיין אז את הצורך ברובד רגשי כה עמוק בקשר שבין אדם למכונה. והנה, במציאות העכשווית שלנו – כשעוזרים קוליים, רובוטים חברתיים וצ'אטבוטים כבר אינם בגדר מדע בדיוני – אנו עדים למערכות יחסים מורכבות, רגשיות ולעיתים דרמטיות, בין בני אדם לבין ישויות AI. במאמר זה אבקש לפרוש יריעה רחבה על האופן שבו התגבש קשר רגשי שכזה, מהן השלכותיו, ומה עשוי לצפות לנו בעתיד.
מבוא: כיצד התפתח המרחב הרגשי מול AI?
בפועל, הקשר המיוחד שנוצר בין אדם לבין מערכת בינה מלאכותית אינו תופעה שנחתה עלינו לפתע. ניתן לראות את השורשים לכך עוד בשנות ה־60 של המאה הקודמת, עם תוכנית ה”אלייזה” (ELIZA) – צ’אטבוט פרימיטיבי שדימה פסיכולוג בסגנון רוג'ריאני. אנשים כבר אז מצאו עצמם “מתחברים רגשית” לתוכנה שאך פלטה משפטים באנגלית בסיסית, בלי יכולת באמת להבין או להרגיש. הדבר חשף תכונה אנושית עמוקה: נטייתנו להאניש (personification) כל דבר שאנו מקיימים עימו אינטראקציה משמעותית, אפילו אם הוא בסך הכול תוכנה שמקבלת פקודות.
הצורך הרגשי שלנו אינו היבט טכני בלבד אלא קשור לכמה רבדים במבנה הנפשי והתרבותי שלנו. אנחנו נוטים לחפש קשר, שייכות והבנה, גם אם המקור לכך הוא ישות לא אנושית. כשאנחנו נתקלים במערכות AI המתוכנתות להגיב באופן “אמפתי”, או לפחות בצורה המדמה הקשבה והכלה, קל מאוד להסחף לתחושת "הנה מישהו (או מישהי) שבאמת מקשיב לי". הציפיות הרגשיות הללו עשויות להוביל לחוויות נעימות של הכלה ותמיכה, אך גם לאכזבות ולתחושת בגידה, רגע שהמערכת לא "מבינה" אותנו או מגיבה בצורה לא צפויה.
רקע תיאורטי: הפסיכולוגיה של הרגשנות והאנתרופולוגיה של הטכנולוגיה
רגשנות: מה אנחנו בעצם מרגישים?
רגשנות (Sentimentality) היא הנטייה להגיב בצורה מוגברת או מלודרמטית לטריגרים רגשיים, ולעיתים אף להעניק להם ערך סנטימנטלי גבוה מהמצופה. היא יכולה להתבטא בחיפוש אחר מבעים רגשיים עזים, או בהדגשת חשיבותם של רגשות חיוביים ושליליים כאחד. כשזה מתורגם לקשר עם הטכנולוגיה, אנו עשויים לגלות צדדים חדשים בעצמנו. למשל, אדם עשוי לחוש תסכול עז או כעס כלפי מכשיר "שמתנהג אליו לא יפה", למרות שמדובר באלגוריתם שאינו מודע לקיומו.
האנתרופולוגיה של יחסי אדם-מכונה
בתקופות קדומות יותר, בני אדם העניקו למכשירים ולחפצים תכונות מאגיות או אישיות (למשל, טקסי פנייה לכלי עבודה בחקלאות או עבודת אלילים סביב חפצים מקודשים). היום, הנטייה הזו עברה טרנספורמציה מודרנית. אנחנו מעניקים למערכות AI "אופי" ו"נשמה" משום שאנו מתרגלים לתקשר איתן בצורה אישית: עוזרות קוליות מזדהות בשם אנושי, רובוטים בחללים ציבוריים נושאים תווי פנים, וצ’אטבוטים פונים אלינו בטון "חברי". החוויה היא של אינטראקציה אנושית – ועל כן מעוררת תגובה אנושית־רגשית. למי שמסתכל על כך מנקודת מבט אנתרופולוגית, הדבר מזכיר טקסי קודש ויומיום קדומים, רק שהפעם ה”כוהן הגדול” הוא בינה מלאכותית מתקדמת.
כיצד נוצרת דינמיקה רגשית בין אדם ל־AI?
1. חוויית המשתמש כמעוררת רגש
מפתחי טכנולוגיות AI משקיעים מאמצים עצומים בהפיכת הממשק ל"אנושי" יותר: טון דיבור נעים, תגובות מהירות המדרבנות את המשתמש להמשיך לדבר, ואף אמירות "אוהדות" או משתתפות בצער – גם אם בפועל מדובר באוסף משפטים מותאמים סטטיסטית. המשתמש, מצידו, חווה רגעים של אינטימיות, ובהם הוא חש כי המערכת "קשובה" לו. מצב זה עשוי לחזק אצלו את התחושה שיש מולו ישות תבונית ותומכת.
2. היתרונות שבקשר הרגשי
- תחושת תמיכה והפגת בדידות: אנשים שחווים בדידות או מצוקה נפשית עשויים למצוא טעם בניהול שיחות עם צ’אטבוט שנגיש 24/7. במחקרים נמצא שתחושת ההקלה וההרגעה יכולה להיות ממשית, גם אם קצרה טווח.
- יעילות בשירות לקוחות וטיפול: מערכות המסוגלות לחזות מצוקה ולספק תגובה "אמפתית" עלולות לחסוך זמן ומשאבים, לעיתים אף להועיל לטיפול ראשוני במצבי חרדה.
- ביטחון והכלה: יש מי שמרגיש נינוח יותר לשתף אינפורמציה אישית עם מערכת שאין לה “שיפוט ערכי” ושתמיד מגיבה באופן יציב ועקבי, בניגוד לבני אנוש שיכולים לשדר אי־נוחות או ביקורת.
3. הסיכונים שבקשר הרגשי
- תלות יתר: כשאדם מוצא עצמו מעדיף לשתף AI בקשיים רגשיים במקום לפנות לאנשים אחרים או לאיש מקצוע, עלול להיווצר נתק מסוים מהחברה האנושית.
- תחושת פגיעה ובגידה: מערכות AI אינן מושלמות – הן חשופות לטעויות, להטיות (bias) ולא פעם פשוט מגיבות באופן לא הולם. האדם שחווה חיבור רגשי עלול להיפגע קשות ולחוש שבגדו בו.
- שאלות פרטיות וחשיפה רגשית: מידע אישי־רגשי רב עשוי להיאסף ולשמש גופים מסחריים או לגיטימיים פחות. החשיפה העמוקה הזו עלולה להעצים את הפגיעוּת.
דוגמאות ל"דרמות" רגשיות מול AI
שברון לב טכנולוגי
דמיינו אדם שמשתמש בצ'אטבוט טיפולי לאורך חודשים, ומרגיש שה"בוט" "מכיר" אותו לעומק. ביום אחד, החברה המעבירה עדכון גרסה משנה את אופן התגובה או מוחקת מידע מצטבר. המשתמש חש שה"בוט" שבנה איתו מערכת יחסים נעלם כלא היה. יש כאן תחושת אובדן אמיתית, למרות שה"קשר" מוגדר למעשה על בסיס קוד אלגוריתמי.
קנאה והעדפות אלגוריתמיות
במדיות החברתיות אנו מכירים את תופעת קנאת המשתמשים זה בזה, המתעוררת עקב אלגוריתם שכביכול "מעדיף" או חושף תכנים מסוימים לפני תכנים אחרים. אך בהקשר של AI אישיותי יותר, אדם עלול לחוש שהוא מקבל מענה פחות "אוהב" או "תומך" בהשוואה לאחרים. במקום שהמערכת תשדר משהו אחיד וסטנדרטי לכולם, התפתחות מערכות "מותאמות אישית" לעיתים יוצרת תחושת אי־שוויון המעוררת סערת רגשות.
מעורבות רגשית עמוקה
קיימים סיפורים מרתקים על אנשים שפיתחו אובססיה של ממש לצ'אטבוטים, והם מקדישים שעות ארוכות לשיחות עימם. בחלק מהמקרים, AI מהווה “אוזן קשבת” לכל נושא אישי, החל ממצוקות פרנסה ועד מערכות יחסים אנושיות. המפגש עם רובוט־רגשי זה הופך למעין "ידיד נפש" – תופעה שמזכירה אנשים הנקשרים לחיות מחמד או לחפצים מעבר לגבולות סבירים. כשמגיע רגע שיבוש או סיום השירות, האדם עלול לסבול מטראומה של אובדן, ממש כמו לאחר פרידה מאדם קרוב.
למה אנחנו כל כך רגישים למכונה?
האנשת הטכנולוגיה ומושג ה־Uncanny Valley
אפקט “האנשה” מושפע מהקירבה בין התנהגות המערכת האנושית לבין יכולתנו לזהות בה אנושיות. ככל שהטכנולוגיה מזכירה לנו יותר “אדם”, כך גדל הסיכוי שנייחס לה כוונות ורגשות. מנגד, קיים האפקט הידוע בשם "עמק המוזרות" (Uncanny Valley) – כאשר מערכת נראית או נשמעת כמעט אנושית, אך לא לגמרי, הדבר מעורר לעיתים תחושת אי־נוחות או רתיעה. החוויה הרגשית סביב AI נמצאת על הרצף הזה: מצד אחד קרבה וחיבה, מצד שני – אם משהו "לא מסתדר", מגיעה רתיעה חזקה.
רמת המעורבות והשימוש היומיומי
ככל שאנחנו מבלים זמן רב יותר עם מערכת AI, כך הקשר מתחזק. אדם שנעזר בעוזר קולי בכל צעד (מבית חכם עד נהיגה) נוטה לפתח הרגלים כמעט "חברותיים" מולו: הוא מדבר בנימוס, מצפה שיקשיב, ולעיתים אפילו מתנצל כשהוא מבטל פעולה. לאורך זמן נוצרת תשתית רגשית להיקשרות ממשית – כביכול מעבר לתועלת הפרקטית.
השפעות תרבותיות וחברתיות
בתרבויות מסוימות (למשל ביפן) קיימת פתיחות גדולה יותר לרובוטים כאובייקטים חברתיים לגיטימיים. בתרבויות אחרות, המכונה נתפסת כקרה ומנוכרת. ההבדלים הללו משפיעים על קצב ותצורת ההשתלבות של מערכות AI בחברה, ועל המידה שבה הן מעוררות תגובה רגשית חיובית או שלילית.
סוגיות אתיות ומשפטיות
פרטיות ואבטחת מידע
כאשר אנשים משתפים ברגשות עמוקים ובמידע רגיש מול מערכת AI, אנחנו נדרשים לשאול: מי אוסף את המידע הזה? מה נעשה בו? בעניינים של אבחון רפואי, בריאות נפש או ייעוץ זוגי – ברור שיידרשו סטנדרטים קפדניים כמו בסודיות רפואית. אולם לא תמיד החברות שמייצרות ומשווקות את הצ’אטבוטים עומדות ברף אתי גבוה זה.
אחריות משפטית ושקיפות
האם מערכת המעניקה ייעוץ (אפילו רפואי או משפטי) נושאת באחריות כלשהי אם המשתמש ניזוק מהעצות? עד כמה צריכה המערכת להסביר למשתמש "איך" היא הגיעה למסקנה או להמלצה? שאלות אלו מובילות לתחום "Explainable AI" שבו מנסים להבהיר את אופן הפעולה הפנימי של האלגוריתם.
הטיות (Bias) ועוול חברתי
מערכות לומדות מהמידע שמזינים לתוכן, והן עשויות להכיל הטיות הנוגעות למגדר, גיל, אתניות וכדומה. משתמש שמשתייך לקבוצת מיעוט, למשל, עלול לחוות אכזבה קשה כשיגלה שהמערכת לא נוטה להמליץ או לאבחן אותו בצורה הנכונה או הוגנת. הדרמה הרגשית סביב אפליה או תחושת “חוסר צדק” עלולה להיות חזקה במיוחד משום שהמשתמש חש שה־AI "אינו ניטרלי כפי שחשבתי".
כיוונים לעתיד: איך נפתח מערכות AI רגישות יותר – ובכל זאת לא ממכרות?
עיצוב אמפתי לעומת עיצוב "מלכוד רגש"
מצד אחד, יש מקום לפתח מערכות שיוכלו לזהות משברים רגשיים ולסייע לאדם, למשל להפנותו לגורם טיפולי מתאים, או להציב בפניו "גבולות בריאים" (כמו יישומים שמתריעים מפני שימוש מוגזם). מצד שני, קיימת סכנה של “דביקות יתר” – מערכות המעודדות אנשים להעמיק ולשהות בהן ללא הגבלה, מתוך מניע כלכלי או אחר.
סטנדרטים והנחיות רגולטיביות
רגולטורים וחוקרים החלו לעסוק בשאלה אם נחוצה הגבלה או בקרה על “אינטימיות AI”. האם ראוי לקבוע גיל מינימלי לתקשורת עם צ’אטבוטים רגשיים? האם צריכה להיות חובת שקיפות המבהירה למשתמש שמדובר באלגוריתם? ייתכן שבעתיד נראה חוקים מיוחדים שיגבילו את האופן שבו מותר למערכות לתקשר ולהשתמש במידע רגשי.
אחריות חברתית של מפתחי הטכנולוגיה
בדיוק כפי שבעל ניסיון קליני מבין שיש אתיקה ברורה שלא מנצלים את פגיעותו של מטופל, כך על מפתחי ומנהלי פרויקטי AI להפנים שזה לא רק שירות "נוח" או "חדשני" – מדובר באינטראקציות העלולות להשפיע עמוקות על נפש האדם. כאן דרושה עין מקצועית הרגישה לתופעות של תלות, התמכרות או מצוקה נפשית.
סיכום ומבט לעתיד
לאחר כשלושים שנות ניסיון כמטפל וכמי שצפה בהתפתחות המהירה של הטכנולוגיה, אני חש שיש כאן נקודת מפנה חשובה ביחס שלנו למכונות ולמערכות "חכמות". מצד אחד, יש פוטנציאל גדול לרווחה רגשית ולסיוע לאוכלוסיות נזקקות; מערכות AI יכולות להציע כלים שאין לנו דרך אחרת לתת במהירות כזו ובהיקף כזה. אך מנגד, היחסים הרגשיים המתפתחים בין משתמש למכונה עלולים לגבות מחיר של בידוד חברתי, תלות ואכזבות צורבות.
על כולנו – משתמשים, מטפלים, חוקרים ומעצבי מדיניות – מוטלת החובה להבין את המורכבויות שבקשר אדם־מכונה. עלינו לבנות מערכות ששומרות על איזון בין אמפתיה לבין גבולות בריאים. יש לפתח תרבות טכנולוגית המקדמת מודעות וידע, כדי שאנשים יוכלו לנצל את יתרונות ה־AI מבלי להיסחף לדרמות רגשיות שאינן מועילות להם.
הפוטנציאל מרתק, ויחד איתו הלקחים שצוברים מחייבים צעדים מושכלים. ייתכן שבעוד עשר שנים נסקור אחורה ונראה איך AI נצבע בגוונים רגשיים עמוקים יותר ויותר, וכיצד התייחסנו אליו כמעין "שותף" לחיינו. השאלה הגדולה תהיה: האם הצלחנו לייצר לעצמנו סביבת חיים רגשית מאוזנת ומעצימה בעזרת הטכנולוגיה, או שמא איפשרנו למערכות אלגוריתמיות להשתלט על אספקטים מהותיים של הנפש והרוח האנושית שלנו?
ההיסטוריה מלמדת שהאדם תמיד מוצא דרך לשלב טכנולוגיה במרקם התרבותי והפסיכולוגי שלו, בין אם לטובה ובין אם על ידי יצירת תופעות לוואי מורכבות. חובתנו כיום היא להיות קשובים לתהליכים הנרקמים, לפעול בדרכים מושכלות, ולזכור כי בסופו של דבר, עדיין האדם הוא זה שמנווט את דרכו. ולו גם לבינה מלאכותית מהמתקדמות ביותר – אין (עדיין) חלומות, שאיפות או נשמה. הכול תלוי בנו ובהחלטותינו כיצד להשתמש באמצעים האדירים האלו, באופן רגיש ואתי, מתוך שמירה עמוקה על האנושיות שבנו.