המלחמה הראשונה בבינה מלאכותית: נפגעים אזרחיים ובדיקות חסרות תקדים של טכנולוגיה צבאית
דוחות נבחרים

המלחמה הראשונה בבינה מלאכותית: נפגעים אזרחיים ובדיקות חסרות תקדים של טכנולוגיה צבאית

סדה ניוז - המבצע הצבאי האחרון באיראן, שכונה "הזעם האפי", מעורר בז'נרלogue רחב حول תפקיד הבינה המלאכותית בזירות הקרב, לאחר שמתו 110 ילדים ועשרות אזרחים בהפצצה ממוקדת בבית ספר יסודי במינאב, وسط שאלות לגבי המידה שבה מערכות אוטומטיות מסתמכות על קבלת החלטות קריטיות. כך לפי העיתון "הטיימס".

במהלך 24 השעות הראשונות מהמבצע, כוחות אמריקאיים תקפו מעל אלף מטרות תוך שימוש במערכות בינה מלאכותית מתקדמות, בקצב של כ-42 מטרות בשעה, מה שגרם למומחים לתהות האם מכונות הן אלו ששולטות כעת בהלכי המלחמה, כאשר המוח האנושי מתקשה לעמוד בקצב ומהירות אלו.

הראיות הגוברות מצביעות על כך שההפצצה על בית הספר "עץ טוב" היסודי, שהיה חלק מקומפלקס של משמרות המהפכה האיראניים, הביאה למספר גדול של נפגעים, למרות שבית הספר היה מופרד מהקומפלקס בגדר מזה תשע שנים, והתמונות מהחלל מציגות קירות צבעוניים וגן משחקים קטן, מה שמעלה את האפשרות שהמערכות האוטומטיות הסתמכו על נתונים ישנים לקביעת מטרות.

אמרה נואה סילביה, אנליסטית מחקר במכון השירותים האיחודיים המלכותי: "אם ההפצצה על בית הספר הייתה בטעות, האם זו הייתה טעות של בני אדם או תוצאה של מהירות האוטומציה של המערכת? האם היא הסתמכה על נתונים ישנים? או שהמכונה ביצעה את המבצע באופן אוטומטי? מספר ההפצצות שאנחנו רואים תומך ברעיון שמטרות נקבעות כמעט באופן עצמאי".

מנגד, ציין הדוקטור קרייג ג'ונס, מרצה לגיאוגרפיה פוליטית באוניברסיטת ניוקאסל, כי הבינה המלאכותית ייתכן שאין לה הצליח לזהות את בית הספר כבית ספר, והחשיבה עליו כמטרה צבאית, והוסיף שכל החלטה אנושית לביצוע ההפצצה התבססה על ניתוחים ואיסוף מידע שסייעו לבינה המלאכותית לייצר.

הוסיף: "יהי מה שתהא האמת הסופית, ההפצצה מהווה כישלון מודיעיני הרסני, אם היא נגרמה על ידי בינה מלאכותית או בוצעה על ידי בני אדם בעזרת רכיב אוטומטי".

מאפייני הפנטגון אישרו כי החקירות עדיין נמשכות סביב השאלה האם המידע שהתקבל על בית הספר היה ישן, בעוד הנשיא האמריקאי דונלד טראמפ, מבלי לספק הוכחות, רמז על אפשרות שהאיראנים או צד אחר התערבו. אבל הניתוחים מצביעים על כך שהשתמשו בנשק אמריקאי במבצע.

ארצות הברית וישראל משתמשות בכמה מערכות בינה מלאכותית בפועל הצבאיות שלהן נגד איראן, בעיקר בפרויקט "מאפן" שפיתחה וושינגטון מאז 2018 בעזרת חברת פאלנטיר לאיסוף וניתוח נתונים, והוא משתלב בכל מטה הכוחות האמריקאיים.

המומחים רואים שהשימוש בבינה המלאכותית דומה ל"גרסה צבאית של (אובר)", כאשר הוא תורם למיקוד ומעקב, אך ההחלטה הסופית נשארת בידי בני האדם. עם זאת, מהירות ההצעת אלפי מטרות מדי יום מעוררת סיכונים גדולים, כולל מה שמכונה "הטיית האוטומציה" ו"ההטייה כלפי ביצוע", כאשר ההחלטה של המכונה נהיית סמכות שחורגת מיכולות האדם בהערכה חוקית ואתית.

הבעת אלכה שוורץ, פרופסורית לתיאוריה פוליטית באוניברסיטת קווין מרי בלונדון, על דאגתה מהאפשרות שהעתיד יראה הרחבת משימות הבינה המלאכותית לקביעת מטרות והתנהגויות חשודות מראש, דבר שיכול להוביל לביצוע התקפות מונעות, והשקפתה היא שבינה מלאכותית תהפוך לגורם גובר בהחלטת השימוש בכוח ובתחילת סכסוכים, מה שנראה מפחיד מאוד.