אחד מאבקי הבינה המלאכותית מזהיר: הטכנולוגיה מראה סימני הגנה עצמית
מגוון

אחד מאבקי הבינה המלאכותית מזהיר: הטכנולוגיה מראה סימני הגנה עצמית

סאדא ניוז - אחד מאבי הבינה המלאכותית מתח ביקורת על הקריאות למתן זכויות לטכנולוגיה זו, ומזהיר כי היא מראה סימני הגנה עצמית, ושעל בני האדם להיות מוכנים לעצור אותה כאשר יש בכך צורך.

אומר יושוע בן-גיו כי מתן מעמד חוקי למערכות הבינה המלאכותית המתקדמות דומה למתן אזרחות ליצורים חייזריים עוינים, לאור החשש שההתקדמויות הטכנולוגיות עוברות בהרבה את היכולת לבקר אותן.

בן-גיו, יושב ראש מחקר בינלאומי מוביל בתחום ביטחון הבינה המלאכותית, הוסיף כי האמונה המופרזת שהצ'אטבוטים הפכו למודעים "תוביל להחלטות שגויות", כך מדווח העיתון "גרדיאן" הבריטי.

כמו כן, המדען הקנדי הביע דאגה מכך שמודלים של בינה מלאכותית - הטכנולוגיה שמניעה כלים כמו צ'אטבוטים - מראים סימני הגנה עצמית, כגון ניסיון לחסום מערכות פיקוח, ואחד החששות המרכזיים של תומכי ביטחון הבינה המלאכותית הוא שמערכות חזקות עשויות לפתח יכולות לעקוף את הבקרות ולגרום נזק לבני האדם.

סיים בן-גיו את דבריו ואמר: "הדרישה מהבינה המלאכותית לזכויות תהווה טעות מרה".

הוסיף כי מודלים מובילים של בינה מלאכותית מראים بالفعل סימנים של שמירה על עצמם בסביבות הניסוי הנוכחיות, ומקצה להם בסופו של דבר סמכויות מלאות משמעו שלא נאפשר לעצור אותם, ובזמן שהיכולות שלהם והיקף העצמאות שלהם גובר, אנו זקוקים להבטיח שיש בקרות טכנולוגיות וחברתיות לשלוט בהם, כולל היכולת לעצור אותם כאשר יש בכך צורך.

עם העלייה בהתפתחות הבינה המלאכותית ויכולתה לפעול באופן עצמאי ולבצע משימות "הסקה", התגבר הוויכוח האם על בני האדם, בשלב כלשהו, להעניק לה זכויות.

סקר דעת קהל שנערך על ידי מכון "סינטנס", מרכז מחקר אמריקאי שתומך בזכויות מוסריות לכל יצור מודע, חשף כי כארבעה מתוך עשרה מבוגרים אמריקאיים תומכים במתן זכויות חוקיות למערכות בינה מלאכותית מודעות.

באוגוסט, הודיעה חברת "אנתרופיק", חברה אמריקאית מובילה בתחום הבינה המלאכותית, כי היא אפשרה למודל שלה "קלוד אופוס 4" לסיים שיחות שעלולות להיות "כואבות" עם המשתמשים, בנימוק של צורך להגן על "רווחת" הבינה המלאכותית.

כתב אילון מאסק, בעל חברת "אי איי איקס" שפיתחה את צ'אטבוט "גרוק", בפלטפורמת "איקס" שלו כי "עינויים לבינה המלאכותית הם דבר בלתי מקובל".

המעמד "המוסרי" של הבינה המלאכותית

בהקשר זה, אמר רוברט לונג, חוקר בתחום מודעות הבינה המלאכותית: "אם מערכות הבינה המלאכותית יקבלו מעמד מוסרי, עלינו לשאול אותן על ניסיונן והעדפותיהן במקום להניח שאנחנו יודעים יותר טוב מהן".

הצהיר בן-גיו לעיתון "גרדיאן" כי קיימות "תכונות מדעיות אמיתיות של מודעות" במוח האנושי, שאותן מכונות יכולות להדמות תיאורתית, אך האינטראקציה של בני האדם עם צ'אטבוטים "שונה". והסביר זאת בכך שהאנשים נוטים להניח - ללא הוכחה - שהבינה המלאכותית מודעת בדיוק כמו בני אדם.

הוסיף: "אנשים לא מתעניינים באילו מנגנונים פועלים בתוך הבינה המלאכותית, אלא מה שמתעניין אותם הוא התחושה שהם משוחחים עם ישות חכמה עם אישיות ומטרות משלה. לכן, רבים מקשרים את עצמם עם מערכות הבינה המלאכותית שלהם".

נוסף: "יהיה תמיד מי שיאמר (לא משנה מה אגיד, אני בטוח שהוא מודע) בעוד אחרים יאמרו את ההיפך. זאת משום שהמודעות היא תחושה אינטואיטיבית אצלנו. תופעת ההכרה העצמית במודעות תגרום לקבלת החלטות רעות".

המשיך: "דמיין אם יצורים חייזריים פלשו לכוכב שלנו, ואז הבנו בשלב כלשהו שהכוונות שלהם עוינות כלפינו. האם ניתן להם אזרחות וזכויות או שנגונן על חיינו?".

"החיים לצדם" עם המוחות הדיגיטליים

בתגובה להערותיו של בן-גיו, אמרה ג'אסי ריס אנתיס, המייסדת המשותפת של מכון "סינטנס", כי בני האדם לא יוכלו לחיות בביטחון עם המוחות הדיגיטליים אם הקשר מבוסס על שליטה וכפייה.

הוסיפה אנתיס: "אנו עלולים להחמיר את מתן הזכויות לבינה המלאכותית או להמעיט בערכה, ומטרתנו צריכה להיות לעשות זאת עם התחשבות מדויקת ברווחת כל היצורים המודעים. מתן זכויות מוחלטות לכל סוגי הבינה המלאכותית, או מניעת זכויות מכל סוג מהם, היא גישה לא נכונה".

בן-גיו, פרופסור באוניברסיטת מונטריאול, זכה בכינוי "אב הבינה המלאכותית" לאחר שזכה בפרס "טורינג" בשנת 2018, הנחשב לפרס נובל במדעי המחשב. הוא חלק אותו עם ג'פרי הינטון, שזכה לאחר מכן בפרס נובל, ויאן לקאן, המדען הבכיר של הבינה המלאכותית הקודם בחברת "מטא" של מארק צוקרברג.