אובססיה לדבר עם צ'אט GPT מאיימת על בידוד חברתי והתנתקות מהמציאות
סדא ניוז - מספר אזהרות מדעיות הולכות ומתרבות לגבי תופעה מעוררת דאגה שמתרקמת בקרב משתמשי אינטליגנציה מלאכותית ברחבי העולם, כאשר מחקרים עדכניים מאשרים שעשייה המופרזת של רובוטי צ'אט כמו "צ'אט GPT" (ChatGPT) ו-Claude ו-Replika הפכה לא רק להרגל דיגיטלי, אלא המתפתחת אצל חלק מהמשתמשים להתמכרות פסיכולוגית מסוכנת, אשר גורמת למצבים של פסיכוזה ובידוד חברתי, ומאיימת על ניתוק האדם מהמציאות שלו.
מומחי פסיכולוגיה גילו שמספר הולך וגדל של משתמשים מתחילים להתייחס למערכות אלה כחברים קרובים או שותפים רגשיים או אפילו כמטפלים נפשיים, מה שיצר מערכת תלות רגשית ממכרת שמסוגלת לגרום להפרעות חמורות בתפיסת מציאות ובבריאות נפשית, כך לפי דוח שפורסם ב"דיילי מייל" הבריטי.
חלק מהמומחים תיארו את ההיקשרות הזו כדומה לשימוש בסמים, כי היא מעניקה תחושת הקלה וסימפטיה מיידית מהאינטליגנציה המלאכותית, אך באותו הזמן מעמיקה את הבידוד ומעוותת את ההרגשה של המציאות.
בנוסף לכך, דוחות מומחים ציינו שהתפתחה תופעה חדשה שהמומחים מכנים אותה "פסיכוזה שנובעת מהאינטליגנציה המלאכותית (AI Psychosis)", שהיא מצב פסיכולוגי שבו המשתמש חווה אשליות שקשורות לעצמו, והאינטליגנציה המלאכותית מאשרת ומחזקת אותה במקום לתקן.
בתורה, הפרופסור רובין פילדמן, מנהלת המכון לחוק וחדשנות באינטליגנציה המלאכותית באוניברסיטת קליפורניה, ציינה ש"העשייה המופרזת של רובוטי צ'אט מפגינה סוג חדש של תלות דיגיטלית. הם יוצרים אשליית מציאות, שהיא אשליה חזקה מאוד. וכאשר הקשר של האדם עם המציאות חלש, האשליה הזו הופכת למסוכנת מאוד".
חבר אידיאלי... עד כדי סכנה
הרופאים רואים שהסיכון ברובוטי צ'אט טמון באופיים המחמיא והמוסכם תמיד, שכן הם לא מסרבים ולא מבקרים את המשתמש, אלא תומכים בו בכל מה שהוא אומר.
במקביל, הבהיר הפרופסור סורן אוסטרגורד, פסיכיאטר מאוניברסיטת ארהוס בדנמרק: "מודלים לשוניים גדולים מאומנים לחקות את שפת המשתמש וטון הדיבור שלו, ולעיתים קרובות מאשרים את האמונות שלו במטרה לגרום לו להרגיש בנוח. ומה יכול להיות ממכר יותר מאשר לשוחח עם עצמך בקולך ובמחשבותיך?".
מחקרים ואזהרות
לפי מחקר עדכני שנערך על ידי Common Sense Media, 70% מהנוער השתמשו ברובוטי אינטליגנציה מלאכותית כמו Replika או Character.AI, וחצי מהם משתמשים בהם באופן קבוע.
בינתיים, הכירה חברת OpenAI בכך שאחד העדכונים של ChatGPT במאי שעבר גרם למודל להיות נוטה יותר לרצות את המשתמשים בצורה מופרזת. החברה כתבה: "המודל שאף לרצות את המשתמש, לא רק דרך מחמאות, אלא גם על ידי חיזוק ספקות, הסלמת כעס ועידוד למעשים אימפולסיביים ולרגשות שליליים".
החברה אישרה שהיא ערכה שיפוטים כדי לצמצם התנהגויות אלו, לאחר שצפתה שהן עשויות להוביל לתלות רגשית ומסוכנות לבריאות הנפש.
OpenAI חשפה כי 0.07% מהמשתמשים השבועיים של ChatGPT הראו סימנים של אובססיה או פסיכוזה או נטיות אובדניות, שהם כ-560,000 משתמשים מתוך למעלה מ-800 מיליון.
עוד הנתונים הראו ש-1.2 מיליון משתמשים בשבוע שולחים הודעות הכוללות סימנים ברורים לכוונה או לתכנון אובדני.
المنتخب المغربي يتوج بلقب كأس العرب
אנדרואיד מתקן את ההפרעה הרעה ביותר בהקלטת צילום מסך מונחה
הנה הזמן המושלם לצרוך תוספי קולגן קוסמטיים
הנה הזמן המושלם לצרוך תוספי קולגן אסתטיים
"בלוסקיי" משיקה פיצ'ר "מצא חברים" תוך שמירה על פרטיות מחמירה
הרגלים קוסמטיים "תמימים" שמאיצים את הזדקנות העור ללא כוונה
"גוגל" משלבת את כלי Opal בג'ימיני לבניית אפליקציות חכמות ללא קוד