כיום, AI לא מפותח כל כך כדי לסבול: זה לא עולה כסף לבעוט ברובוט או להעליב עוזר קולי - הם לא יסתירו ממך טינה. אך בהתחשב בקצב הפיתוח הטכנולוגי, הגיוני להיות מוכן לכך שיום אחד AI יגיע לרמה זו.

אוניברסיטאות ברחבי העולם עורכות מחקר גדול בתחום הבינה המלאכותית. חברות הטכנולוגיה, כולל גוגל ופייסבוק, אינן נחותות מהן. כתוצאה מכך, סביר שבקרוב נקבל בינה מלאכותית אמיתית, דומה למורכבות החשיבה לעכברים או לכלבים. לדברי ג'ון באסל, פרופסור מאוניברסיטת נורת'אסטרן, בוסטון, ארה"ב ואריק שוויצגבל, פרופסור מאוניברסיטת קליפורניה בריברסייד, הגיע הזמן לשקול באילו תנאים AI ראויה להגנה האתית שאנו מספקים בדרך כלל. בעלי חיים.
לדברי מדענים, אלגוריתמים של בינה מלאכותית מודרנית הם כלים אנושיים חסרי רגישות שיכולים לבצע פעולות שונות לאוטומטיות. עם זאת, ייתכן שמתישהו ל- AI יהיה משהו הדומה לחוויה מודעת. לקראת היום הזה, הפרופסורים טוענים שעלינו ליצור מערכת של כללי יסוד המסדירים את הגישות כלפי AI, כעת. בפרסום שלהם, הם מציעים שאלגוריתמים של AI ראויים לאותו יחס אתי וזכויות שמהן נהנות בעלי חיים כיום.
AI כיום אינו מפותח עד כדי כך שהוא יכול לחוות את המראה של כל תחושה, כולל סבל. לא עולה כסף לבעוט ברובוט או להעליב עוזר קולי - הם לא יסתירו כל טינה כלפיך. אך בהתחשב בקצב ההתפתחות הטכנולוגית הנוכחית, הגיוני להיערך לכך שבסופו של דבר AI יגיע לרמה זו.
"במקרה של מחקר בבעלי חיים ואפילו בבני אדם, לא הותקנו תרופות מתאימות עד שנודעו הפרות אתיות חמורות (למשל במקרה של חיות מיותרות, פשעי רפואה במלחמה נאצית ומחקר על העגבת של טוסקגי). במקרה של AI, יש לנו הזדמנות להראות את הצד הטוב ביותר שלנו ", מציינים הפרופסורים.
מדענים מסכימים כי ייתכן שלא מגיע ל- AI הגנה אתית מכיוון שלרובוטים אלה אין תודעה: כלומר, אם אין להם חוויה מודעת עם שמחה וסבל אמיתי. עם זאת, הפרופסורים שואלים שאלה פילוסופית קשה יותר: כיצד נדע כאשר יצרנו משהו המסוגל לשמוח ולסבל? אם ה- AI הוא כמו דולורס מסדרת הטלוויזיה ווסטוורלד, הוא יוכל להתלונן ולהגן על עצמו על ידי ייזום דיון על זכויותיו. אבל אם ה- AI אינו נפרד, כמו עכבר או כלב, או אם מסיבה כלשהי הוא לא יכול לתקשר על חייו הפנימיים, אז לא נדע על סבלו. מדענים מציינים את הקושי של סוגיה זו, שכן מומחים בחקר התודעה טרם הגיעו להסכמה לגבי מהי תודעה וכיצד אנו יכולים לקבוע את נוכחותה.
מומחים מציינים בפני הקוראים כי דיונים על "סיכון AI" נוטים להתמקד בסיכונים שטכנולוגיות חדשות יכולות להוות עבורנו בני האדם: השתלטות על העולם והרס האנושות, או לפחות הרס המערכת הבנקאית שלנו, ברשימה זו. פחות דיון הוא הסיכון האתי שאנו מהווים ל- AI עקב התעללות אפשרית.מסיבה זו, מומחים מציעים להקים ועדות פיקוח שיעריכו מחקר חדשני בנושא AI בנושא זה.
"סביר שוועדות כאלה ימצאו כל תוקף של כל מחקר AI הנוכחי. על פי רוב תיאוריות התודעה המרכזיות, עדיין איננו יוצרים AI עם חוויות מודעות הראויות להתייחסות אתית. אבל די מהר נוכל לחצות את הגבול האתי המכריע הזה וחייבים להיות מוכנים ", מסכמים המדענים.