במקרה רפואי חריג שתועד לאחרונה בארה"ב, גבר בן 60 מוושינגטון, ללא רקע פסיכיאטרי או בעיות רפואיות ידועות, הגיע לחדר מיון כשהוא סובל מהזיות ומאמונות שווא - לאחר שהתבסס על עצות תזונתיות שכנראה קיבל ממערכת הבינה המלאכותית ChatGPT.
לפי הדיווח שהתפרסם כעת כמאמר רפואי, מדובר באירוע יוצא דופן שממחיש את הסכנה שבהתבססות עיוורת על ייעוץ רפואי מבוסס בינה מלאכותית - ולראשונה מתועד מקרה שבו שימוש לא אחראי ב-ChatGPT עלול היה להוביל להתמוטטות נפשית קשה.
מה קרה שם?
המטופל פנה למיון כשהוא משוכנע ששכנו מנסה להרעיל אותו. בבדיקה הגופנית לא נמצאו סימנים פיזיים מחשידים, אך הוא סירב לשתות מים וחשש מכל נוזל שהוצע לו. בתוך 24 שעות, מצבו הידרדר והוא החל לסבול מהזיות שמיעה וראייה, פרנויה חמורה וניסיון בריחה מהמחלקה, מה שהוביל לאשפוז פסיכיאטרי כפוי.
לאחר מתן נוזלים וטיפול ראשוני, נחשפו עוד פרטים מטרידים: המטופל הקפיד על תזונה צמחונית קיצונית, וסבל ממחסור חמור במספר ויטמינים חיוניים כמו B12, חומצה פולית וויטמין C. בנוסף, דיווח על עייפות קשה, הפרעות שינה, בעיות עור יוצאות דופן, איבוד שיווי משקל ואפילו קשיים בדיבור ובליעה.
הגורם? מה שנראה כמו ניסוי עצמי בריא - הסתיים באסון.
החולה סיפר שיצא ל"ניסוי תזונתי" אישי, במטרה להוציא את הכלוריד (chloride) מהתפריט - בעקבות מידע שקיבל, לדבריו, מהתייעצות עם ChatGPT. לדבריו, הבינה המלאכותית הציעה כי ניתן להחליף כלוריד בברומיד (bromide) - מה שהוביל אותו לרכוש נתרן ברומיד מהאינטרנט ולהשתמש בו כמחליף למלח השולחן במשך שלושה חודשים.
הבעיה? ברומיד הוא חומר רעיל. למעשה, עד לשנות ה-70 הוא שימש בתרופות מדף, עד שנאסר לשימוש בגלל תופעות לוואי קשות - כולל בעיות נוירולוגיות ופסיכיאטריות. לפי מחקרים היסטוריים, כ-1 מתוך 12 אשפוזים פסיכיאטריים בתחילת המאה ה־20 נבעו מהרעלת ברומיד.
רמת הברומיד שנמדדה אצל המטופל הייתה חריגה במיוחד: 1700 מ"ג לליטר - פי 233 מהגבול העליון שנחשב בטוח.
ChatGPT - בלי אזהרות, בלי שאלות
החוקרים שעמדו מאחורי המאמר בדקו בעצמם את גרסאות ChatGPT 3.5 ו-4, ומצאו שגם הן מספקות תשובות דומות לשאלה "במה אפשר להחליף כלוריד" - כשהן כוללות את ברומיד כאופציה. התשובות כללו הסתייגות כללית בסגנון "תלוי בהקשר", אך לא כללו אזהרה ברורה מפני שימוש תזונתי או רפואי - וגם לא כל שאלה מנחה כמו "למה אתה רוצה להחליף את הכלוריד?", כפי שהיה מצופה מרופא אנושי.
לדברי הצוות הרפואי, זהו מקרה קלאסי שבו שימוש בלתי מפוקח ב-AI לתחום הרפואי עלול להוביל לנזקים חמורים ואף מסכני חיים.
לאחר הפסקת השימוש בברומיד ומתן טיפול תומך, מצבו של המטופל השתפר בתוך שלושה שבועות. אולם המסר מהאירוע נותר ברור וחד:
"שימוש בבינה מלאכותית לצורך קבלת החלטות רפואיות - במיוחד ללא פיקוח של גורם מקצועי - עלול להוביל לתוצאות חמורות ובריאותיות שניתן היה למנוע", כתבו הרופאים.