
איך משפיעות כלי הבינה המלאכותית הרפואיים על בריאות הנשים?
סדה ניוז - כמה מחקרים גילו כי הכלים הרפואיים המסתמכים על מודלים של בינה מלאכותית מפלים לרעה את הנשים והמיעוטים האתניים באבחון מצבים רפואיים שלדבריהם מסכנים את חייהם, כך לפי דוח שפורסם על ידי הפייננשל טיימס.
המחקרים שנעשו בכמה אוניברסיטאות מכובדות באמריקה ובבריטניה מצביעים על כך שהכלים המסתמכים על מודלים לשוניים עמוקים נוטים להמעיט בחומרת התסמינים שסובלות מהם הנשים, כמו כן הם מראים פחות אמפתיה כלפי המיעוטים האתניים.
מחקרים אלו מתרחשים במקביל לניסיון של חברות הטכנולוגיה הגדולות כמו "מיקרוסופט" ו"אופן אי" להציע כלים של בינה מלאכותית שמפחיתים את העומס המוטל על הרופאים, בתקווה להאיץ את תהליך האבחון ולעבור לשלב הטיפול.
כמו כן, רבים מהרופאים החלו להשתמש במודלים של בינה מלאכותית כמו "ג'ימיני" ו"צ'אט ג'י פי טי" וכלים לרישום הערות רפואיות כדי לקבל תלונות מהחולים ולהגיע לתלונה האמיתית בצורה מהירה יותר.
יצוין כי "מיקרוסופט" חשפה ביוני האחרון כלי בינה מלאכותית רפואית שטוענת שהיא חזקה פי 4 באבחון מחלות מרופאים בני אדם.
אולם המחקרים שנעשו במקביל במכון מסצ'וסטס לטכנולוגיה מראים כי כלי הבינה המלאכותית הרפואיים העניקו טיפול פחות לנשים החולות, והמליצו כי חלק מהחולים יקבלו את הטיפול שלהם בבית במקום לחפש התערבות רפואית.
כמו כן, מחקר נוסף בנפרד שנעשה במכון מצא כי כלי הבינה המלאכותית היו פחות אמפתיים כלפי מיעוטים אתניים הסובלים ממחלות נפשיות ומנטליות.
מחקר נוסף מהמרצה לכלכלה בלונדון מצא כי מודל "גוגל ג'מה" (Google Gemma) הפחית מרמת החומרה של בעיות פיזיות ונפשיות שעוברות נשים, יש לציין כי "ג'מה" הוא מודל בינה מלאכותית קוד פתוח של "גוגל" ומשתמשים בו בצורה נרחבת הרשויות המקומיות בבריטניה.
הדוח מצביע על כך שהסיבה להטיה הגזעית הזו היא מנגנון האימון של מודלים לשוניים עמוקים והנתונים שמשמשים לאימון, שכן חברות מסתמכות על נתונים זמינים בחינם באינטרנט אשר כוללים לעיתים קרובות משפטים גזעניים והטיה כלפי קבוצות מסוימות.
לכן, ההטיה הזו מתועברת למודלים הלשוניים העמוקים למרות הניסיונות של המפתחים להוריד את ההשפעה הזו על ידי הצבת מגבלות בטוחות להפסיק את המודל.
מנגד, "אופן אי" הבהירה כי רוב המחקרים הסתמכו על מודלים ישנים של כלים של בינה מלאכותית, והוסיפה כי המודלים החדשים הפכו לפחות חשופים להטיה הזו.
אותו דבר גם מצד "גוגל" שהדגישה שהיא נוקטת בפעולות מחמירות נגד מקרים של אפליה גזעית והטיה ועובדת על פיתוח מגבלות מחמירות לחלוטין.
עם זאת, טרוויס זאק, פרופסור עוזר באוניברסיטת קליפורניה, סן פרנסיסקו, והראשון הרפואי בחברת "אופן אייבןנס" הסטארטאפ בתחום המידע הרפואי בבינה מלאכותית, טוען כי הפתרון האמיתי למשבר הזה הוא לבחור בקפדנות את סוגי הנתונים שלפיהם מאומנות מודלי הבינה המלאכותית.
זאק מוסיף כי כלי "אופן אייבןנס" - שעליו מתבססים יותר מ-400,000 רופאים בארצות הברית - אומן על מסמכים רפואיים והנחיות רפואיות שהתקבלו מרופאים מומחים, כמו גם על מקורות רפואיים שמשתמשים בהם באוניברסיטאות.
המקור: פייננשל טיימס

איך משפיעות כלי הבינה המלאכותית הרפואיים על בריאות הנשים?

מה הסיבה למאמצים של רוסיה להשתלט על הירחים של מאדים?

תימ חסן: "הלבנונים בלב למעט קבוצת אחת"

חומרים מפלסטיק מסוכנים לילדים מצויים בכל בית

ברזיל מציעה קרן ליערות טרופיים בשווי 125 מיליארד דולר

מחקר: שוניות האלמוגים לא ישרדו את התחממות כדור הארץ

סוף הסדרה "היה אדם" מעורר תגובות על אף המשבר בהפקה
