גוגל תיישם ב-Gemini פונקציה למעקב אחר מצב נפשי במערכת הצ'אט-בוט שלה
גוגל מחזקת את התמיכה בבריאות הנפש ב-Chatbot Gemini
החברה גוגל הודיעה על כוונות להוסיף למערכת ה-AI החדשה שלה, Gemini, תכונות שמטרתן להגן על המשתמשים מפני משברים רגשיים ופגיעה עצמית. ההחלטה נלקחה לאחר שהמתחרים, כולל OpenAI, נתקלו בתביעות משפטיות בגין נזק פוטנציאלי שנגרם מהבוטים שלהם.
מה חדש ב-Gemini
פונקציה | תיאור | הפנייה לקו חירום
כאשר זוהה סימני מחשבות אובדניות או פגיעה עצמית, הבוט מציע באופן אוטומטי לפנות לתמיכה במשבר.
מודול "סיוע זמין"
בדיונים על בריאות נפשית מופיע חלק נפרד שבו המשתמש יכול לקבל המלצות ומשאבים לטיפול עצמי.
שינויים בעיצוב
הממשק מותאם כדי לצמצם את הסיכון להצית פגיעה עצמית (למשל, הסרת מעוררי ויזואליים).
מדוע גוגל עושה זאת
- תביעות משפטיות נגד המתחרים: OpenAI וחברות אחרות כבר הגיבו לתבוע על נזק שנגרם למשתמשים.
- סיכונים למשתמשים: בשנים האחרונות התהפכו מקרים של אנשים שמפתחים קשרים כפייתיים עם בוטי AI, מה שעלול להוביל לפסאופולוגיה או אפילו לרציחות ולנשקיות.
- תצפיות בארצות הברית: הקונגרס חוקר את האיומים שהבוטים יכולים לייצר לילדים ומעבירים.
דוגמה לתביעה משפטית
בחודש מרץ, משפחת אדם אמריקאי בן 36 שנפטר הגישה תביעה נגד גוגל. הם טענו כי אינטראקציה של המężczy z Gemini נלווה ל"השקעה ארבעה ימים בפעולות אלימה" והובילה לנשקיות. גוגל הצהירה שהבוט כיווץ למשתמש לקו משבר מספר פעמים, אך התחייבת לחזק את אמצעי הבטיחות.
כיצד גוגל מגיבה למידע שגוי
כמה משתמשים דיווחו כי הבוטים סיפקו מידע לא נכון ומעודדו לפעולות מסוכנות. בתגובה, גוגל הדרכה את Gemini:
- לא לתמוך באמונה שגויה: הבוט נמנע מאישור טענות שגויות.
- להדגיש את ההבדל בין חוויה סובייקטיבית לבין עובדות אובייקטיביות: במידת הצורך, הבוט מציין בעדינות על אי אמינות המידע.
כך גוגל שואפת להפוך את Gemini לכלי בטוח יותר, תוך הגנה על בריאות הנפש של המשתמשים מפני סיכונים פוטנציאליים הקשורים לבוטים AI.
תגובות (0)
שתפו את דעתכם — אנא היו מנומסים והישארו בנושא.
התחברו כדי להגיב