מחקר של "גוגל": דגמי אינטליגנציה מלאכותית חושבים באופן קבוצתי ולא אישי
מגוון

מחקר של "גוגל": דגמי אינטליגנציה מלאכותית חושבים באופן קבוצתי ולא אישי

סדנה ניוז - מחקר חדש שהשתתפו בו חוקרים מ-Google Research גילה שהמודלים המתקדמים של אינטליגנציה מלאכותית אינם פועלים לפי לוגיקה ליניארית פשוטה, אלא מציגים דפוסים הקרובים לאינטליגנציה קבוצתית, בהתנהגות הדומה לדיון פנימי בין קבוצת מוחות אנושיים.

המחקר, שפורסם בפלטפורמת arXiv תחת הכותרת "מודלים של הסקת מסקנות מייצרים חברות של מחשבה", התמקד במודלים מתקדמים של הסקה, כולל DeepSeek-R1 והמודל QwQ-32B של חברת עליבאבא, והגיע למסקנה שהמודלים הללו אינם מסתפקים בעיבוד נתונים חישובי, אלא מחקים במובלע אינטראקציה רב-סוכנית בתוך המודל עצמו.

דיון פנימי במקום חשיבה יחידנית

לפי החוקרים, מודלים אלה מראים מה שמוכר כ"מגוון נקודות מבט", שכן הם יוצרים לעיתים רעיונות סותרים, ולאחר מכן פועלים לאזן אותם ולפתור את הניגודים פנימית, בצורה הדומה לדיון של צוות עבודה המנסה להגיע להחלטה הטובה ביותר האפשרית.

במילים אחרות, התשובה הסופית נוצרת רק לאחר דין ודברים פנימי שאינו נראה למשתמש, לפי דיווח שפורסם באתר "digitaltrends" שהגיעה אליו "אל-ערביה ביזנס".

הרעיון הזה אתגר את התפיסה השלטת במשך שנים בעמק הסיליקון, שהייתה מניחה ששיפור האינטליגנציה המלאכותית תלוי בעיקר בהגדלת גודל המודלים, ובגידול הנתונים, ובשימוש ביכולות חישוביות נוספות.

המחקר מדגיש שהطريقة לארגן את תהליך החשיבה עצמה אינה פחות חשובה מגודלו או מעוצמתו החישובית.

עורך דין השטן בתוך המודל

תוצאות המחקר מצביעות על כך שהיעילות של המודלים הללו נובעת מכוחם לערוך מה שמכונה "שינוי פרספקטיבה", שבו הם בודקים את המסקנות שלהם, שואלים שאלות בהירות, ומבחנים חלופות שונות לפני הגעה לתשובה הסופית.

זה דומה לקיומו של "עורך דין השטן" פנימי שמכריח את המודל להטיל ספק בלוגיקה שלו עצמו במקום להסתפק במסקנה הראשונה.

מה זה אומר עבור המשתמשים?

עבור המשתמשים, שינוי זה עשוי להוות קפיצה איכותית באיכות האינטליגנציה המלאכותית.

במקום תשובות בטוחות אך לעיתים שגויות, מודלי האינטליגנציה הקבוצתית יכולים להיות מדויקים יותר, טובים יותר בהתמודדות עם שאלות מורכבות ואמביוולנטיות, וקרובים יותר בהתנהגותם לחשיבה האנושית.

החוקרים גם רואים שסגנון זה עשוי לתרום לצמצום הטיית מחשבה, כי תשומת לב למגוון נקודות מבט פנימית מפחיתה את הסיכון ליפול לדפוס חשיבה אחד או לתמונה חסרה.

לכיוון דור חדש של אינטליגנציה מלאכותית

בסופו של דבר, תוצאות אלו דוחפות להגדרת מחדש של האינטליגנציה המלאכותית, מלהיות מכונת חישוב מתקדמת למערכת חשיבה מאורגנת התלויה במגוון פנימי ושיתוף פעולה במובלע.

ואם ההנחות הללו יוכחו כנכונות, ייתכן שע future האינטליגנציה המלאכותית לא יהיה רק בבניית מודלים גדולים יותר, אלא בעיצוב צוותי עבודה דיגיטליים בתוך המודל עצמו.

מה שמקל את הרעיון של אינטליגנציה קבוצתית, שקושר זמן רב לביולוגיה ולחברות אנושיות, ותופס מקום בתור הבסיס לנסיקה הבאה בעולם הטכנולוגיה.