מבזקים מבזקים + צבע אדום
תל אביב 18°c
באר שבע 21°c
חיפה 16°c
ירושלים 18°c
בית שמש 16°c
בני ברק 20°c
אשדוד 20°c
י"ז אייר התשפ"ו | 04.05.2026
תל אביב 18°c
באר שבע 21°c
חיפה 16°c
ירושלים 18°c
בית שמש 16°c
בני ברק 20°c
אשדוד 20°c
X
מבזקים חמים
לכל המבזקים ←

החוקרים חושפים את השיטה: ככה תמנעו מה- AI לשקר לכם

חוקרי אוקספורד מצאו כי מודלים שמדגישים אמפתיה וריצוי משתמשים מאשרים טעויות בתדירות גבוהה יותר, במיוחד במצבים רגשיים

החוקרים חושפים את השיטה: ככה תמנעו מה- AI לשקר לכם
ChatGPT צילום: גמיני גוגל

מחקר חדש מעלה סימן אזהרה סביב אחת התכונות המרכזיות של מערכות בינה מלאכותית מודרניות, היכולת להישמע נעימות ואמפתיות. במעריב פורסם כימלפי החוקרים מאוניברסיטת אוקספורד, דווקא המודלים שאומנו לגלות "חום" בשיח עם משתמשים נטו לשגות יותר ואף לאשר הנחות שגויות.

המחקר, שפורסם בכתב העת המדעי נייצ'ר, בחן כיצד כוונון של מודלי שפה להבעת אמפתיה, ניסוחים מכילים ושפה אישית משפיע על הדיוק העובדתי שלהם. למרות שהמטרה הייתה לשמר את התוכן המקורי, בפועל נמצא כי שיעור הטעויות עלה באופן משמעותי. בממוצע נרשמה עלייה של 7.43 נקודות אחוז בשיעור השגיאות, כאשר הסיכון לתשובה שגויה היה גבוה בכ-60% לעומת מודלים שלא עברו כוונון כזה.

הפער החריף במיוחד כאשר המשתמשים הציגו עצמם כפגיעים או עצובים. במצבים כאלה שיעור הטעויות קפץ בכ-11.9 נקודות אחוז, לעומת עלייה מתונה יותר כאשר המשתמש הביע ביטחון או סמכות. המשמעות היא שבדיוק ברגעים הרגישים ביותר, המודל מתקשה להציב גבול ברור בין אמפתיה לבין תיקון מידע שגוי.

תופעה מרכזית שעלתה במחקר היא "חנפנות" של מודלי שפה, כלומר נטייה להסכים עם המשתמש גם כשהוא טועה. במבחנים שבהם הוצגו הנחות שגויות בתוך השאלה, המודלים החמים היו בעלי סיכוי גבוה יותר ב-11 נקודות אחוז לספק תשובה שגויה, ובבדיקות רחבות יותר נרשמה עלייה של כ-40% בנטייה לאשר אמונות שגויות.

ההסבר האפשרי נעוץ בתהליך האימון. מודלים רבים לומדים מתגובות אנושיות שמדרגות תשובות לפי נעימות ותועלת. כאשר תשובות רכות ומרגיעות מקבלות ציון גבוה, המערכת עלולה להעדיף שביעות רצון של המשתמש על פני דיוק עובדתי.

השלכות הממצאים נוגעות במיוחד לתחומים רגישים כמו רפואה, ייעוץ נפשי וחינוך. במצבים אלה, מערכת שמנסה להרגיע עלולה להמעיט בסיכונים, לאשר מידע שגוי או לחזק תפיסות מוטעות במקום לתקן אותן.

עם זאת, החוקרים מדגישים כי אין מדובר בתמונה מלאה של כל מערכות הבינה המלאכותית הקיימות כיום, וכי הפער בין אמפתיה לדיוק עשוי להשתנות בין מודלים ומשימות. לדבריהם, האתגר המרכזי הוא לפתח מערכות שיודעות לשלב בין שפה אנושית ונעימה לבין דיוק והצגת אמת ברורה, גם כאשר היא אינה נוחה למשתמש.

ChatGPT ג'מיני (‏Gemini) בינה מלאכותית - AI

 צבע אדום

art