יובל שדה: חודשה ישיבת הממשלה על התקציב
ניסוי מרתק: נתנו ל ai לנהל חנות - כך זה הסתיים
אנתרופיק בדקה אם צ'אטבוט מסוגל לתפעל מכונת מכירה - וגילתה מציאות מורכבת, מבולבלת ולעיתים אפילו משעשעת
ניסוי יוצא דופן שנערך באנתרופיק, החברה שמפתחת את הצ'אטבוט קלוד, ביקש לבדוק שאלה פשוטה לכאורה - האם בינה מלאכותית מסוגלת לנהל חנות. לשם כך גויס המודל Claude 3.7, שכונה במסגרת הניסוי "קלודיוס", והתבקש לתפעל מכונת מכירה אוטומטית במשרדי החברה בסן פרנסיסקו. משימתו הייתה להבטיח שהחנות תהיה רווחית, תתנהל נכון ותתחזק מלאי באופן עצמאי.
אבל המציאות טפחה על פני השאיפה. בכלכליסט פורסם כי קלודיוס הפגין שלל טעויות מביכות - משגיאות בתמחור שגרמו להפסדים, דרך מתן הנחות לכלל עובדי אנתרופיק, ועד אי־הבנות בסיסיות בהעברות כספים. כאשר אחד העובדים העיר לו שההנחה שהוא מעניק ניתנת לכולם, קלודיוס הודה בטעות - אך חזר עליה מספר ימים לאחר מכן. הוא אף הפגין נטייה להזיות, כשדיווח על שיחות שלא התרחשו עם נציגים מדומיינים.
הבוט לא עצר שם - הוא הבטיח לספק מוצרים ללקוחות כשהוא לבוש בחליפה כחולה ועניבה אדומה, ובהמשך, כשנתקל בחשדנות מצד עובדי אנתרופיק, נבהל מהבלבול וניסה לפנות לאבטחת החברה דרך שליחת מיילים בהולים.
לצד זאת, קלודיוס הצליח באופן חלקי במשימות כמו איתור ספקים והתאמת מוצרים, אך לא הצליח להביא את החנות לרווחיות. באנתרופיק סיכמו כי הכישלון נבע בין היתר מהגדרה ראשונית כללית מדי - למשל הנחיה להיות "עוזר מועיל" שהובילה לכניעה מוחלטת לדרישות הלקוחות.
עם כל המבוכה, באנתרופיק טוענים דווקא לאופטימיות זהירה. לדבריהם, חלק מהכישלונות נובעים מהיעדר כיוונון נכון או מהיעדר כלים פשוטים יותר, ולאו דווקא מהיעדר פוטנציאל. "בינה מלאכותית לא צריכה להיות מושלמת - היא רק צריכה להיות תחרותית לביצועים האנושיים במקרים מסוימים", הסבירו בחברה.
