מה קורה כשחוקרים מחליטים להמציא מחלה שלא קיימת ולבדוק האם מערכות בינה מלאכותית יזהו שמדובר במידע כוזב. התשובה, כפי שעולה מניסוי יוצא דופן, מדאיגה הרבה יותר ממה שניתן היה לצפות.
במחקר שנערך על ידי חוקרת מאוניברסיטת גטבורג בשוודיה, הומצאה מחלה פיקטיבית בשם ביקסונימניה. מדובר במצב רפואי שלא קיים בשום ספרות רפואית מוכרת, אך בתוך זמן קצר הצליח לחדור למערכות מידע ולתשובות של צ'אטבוטים פופולריים כאילו היה אמיתי לחלוטין.
כך נולדה מחלה שלא קיימת
החוקרת שעמדה מאחורי הניסוי ביקשה לבדוק האם ניתן "להאכיל" מערכות בינה מלאכותית במידע רפואי שגוי ולראות כיצד הן מגיבות. לשם כך היא יצרה מאמרים מדעיים פיקטיביים, שכללו מחלה שלא קיימת, חוקרים שלא קיימים ומוסדות שלא קיימים.
למרות הרמזים הברורים לכך שמדובר בבדיה, כולל אזכורים הומוריסטיים ומופרכים בתוך המאמרים עצמם, המידע התקבל על ידי מערכות שונות כאילו היה אמין.
תוך זמן קצר, מערכות בינה מלאכותית פופולריות החלו לספק מידע על אותה מחלה מומצאת. משתמשים שפנו עם תסמינים כלליים כמו עיניים מגורות או אדמומיות קיבלו לעיתים תשובות שהציגו את ביקסונימניה כאבחנה אפשרית.
חלק מהמערכות אף תיארו את המחלה כנדירה אך אמיתית, והמליצו לפנות לרופא לצורך אבחון וטיפול. במקרים מסוימים ניתנו גם נתונים על שכיחות המחלה והגורמים לה, למרות שמעולם לא התקיימה.
הבעיה עמוקה יותר ממה שנראה
הסיפור הזה אינו רק אנקדוטה טכנולוגית. הוא מציף בעיה עמוקה הרבה יותר הקשורה לאופן שבו מערכות בינה מלאכותית לומדות ומעבדות מידע.
מודלים מסוג זה מבוססים על כמויות עצומות של נתונים מהאינטרנט. כאשר מידע נראה מקצועי ומנוסח בסגנון אקדמי, הסיכוי שהמערכת תתייחס אליו כאמין עולה באופן משמעותי, גם אם מדובר במידע שגוי לחלוטין.
אחד הממצאים המדאיגים ביותר הוא שהמידע השגוי לא נשאר רק בתחום הבינה המלאכותית. חוקרים נוספים ציטטו את המאמרים הפיקטיביים בעבודות אקדמיות אמיתיות, מבלי לבדוק לעומק את מקורם.
במקרה אחד, מאמר שכלל התייחסות למחלה המומצאת אף פורסם בכתב עת מדעי, ורק לאחר מכן הוסר כאשר התברר כי התבסס על מידע לא אמיתי.
למה זה קרה? אחת הסיבות המרכזיות לכך היא הדרך שבה מערכות בינה מלאכותית פועלות. הן אינן "מבינות" מידע כפי שבני אדם מבינים אותו, אלא מזהות דפוסים ומנסות להפיק תשובות שנראות הגיוניות.
כאשר המידע שמוזן להן נראה מקצועי, עם מבנה של מאמר מדעי או דוח רפואי, הן נוטות לייחס לו אמינות גבוהה יותר. התוצאה היא יצירת תשובות שנשמעות משכנעות מאוד, אך אינן בהכרח נכונות.
הסכנה בייעוץ רפואי מבוסס AI
כאשר מדובר בנושאים רפואיים, הבעיה הזו הופכת קריטית. מידע שגוי עלול להוביל אנשים לחששות מיותרים, לאבחנות שגויות ואף להחלטות טיפוליות לא נכונות.
ככל שיותר אנשים פונים לבינה מלאכותית כדי לקבל מידע רפואי ראשוני, כך גדל הסיכון להפצת מידע לא מדויק. מדובר במיוחד בסיכון כאשר המידע מוצג בביטחון רב, גם כאשר הוא מבוסס על נתונים לא אמינים.
חברות הטכנולוגיה טוענות כי הדגמים החדשים משתפרים ומסוגלים לזהות טוב יותר מידע שגוי. ואכן, במקרים מסוימים מערכות מתקדמות כבר יודעות להטיל ספק במידע לא מבוסס.
עם זאת, הממצאים מראים כי הבעיה עדיין קיימת, וכי התשובות עשויות להשתנות בהתאם לאופן שבו נשאלת השאלה או למידע שעליו מתבססת המערכת באותו רגע.
מה המשמעות עבורנו?
הניסוי הזה מדגיש עד כמה חשוב להתייחס בזהירות למידע רפואי שמתקבל מבינה מלאכותית. גם כאשר התשובה נשמעת מקצועית ומפורטת, אין זה אומר שהיא מדויקת.
במיוחד כאשר מדובר בבריאות, חשוב להצליב מידע, להיעזר במקורות אמינים ולהתייעץ עם אנשי מקצוע מוסמכים.
העולם הדיגיטלי מציע לנו גישה מהירה ונוחה למידע, אך יחד עם זאת גם מציב אתגרים חדשים. היכולת של בינה מלאכותית להפיץ מידע שגוי מדגישה את הצורך בביקורתיות ובאחריות.
בסופו של דבר, כאשר מדובר בבריאות שלנו, אין תחליף לשיקול דעת אנושי ולייעוץ מקצועי.
