בינה מלאכותית - "אל תגידו זה לא קשור אלי"

הרב יובל שרלו סבור שהמודעות לסכנות שבהתפתחות הבינה המלאכותית שייכת להיסטוריה, אך בטוח שיש עוד דברים שניתן לעשות כדי למנוע מצב שהמציאות החדשה לא תפגע בנו כבני אנוש

הרב יובל שרלו הרב יובל שרלו 28/05/18 16:11 יד בסיון התשעח

בינה מלאכותית - "אל תגידו זה לא קשור אלי"
רובוט עם מחשבה, צילום: shutterstock

הבינה המלאכותית אינה מציאות עתידית. היא ההווה. בכל יום נוספים אין ספור מפגשים בינינו ובין תהליכים שנוצרו על ידי הבינה המלאכותית, וכדרכם של דברים – ההתפתחות הטכנולוגית מקדימה בהרבה את הדיון האתי, ואת כל המשמעויות שנולדות מהאתיקה, למן החינוך ועד הרגולציה, ולמן החקיקה ועד שינוי התודעה והצורך בהסכמה מדעת לחלק כחלק בלתי נפרד מכך.

הבינה המלאכותית אינה עוד עליית מדרגה ביכולת הטכנולוגית, שניתן להתייחס אל קיומה באותם כלים שעשינו זאת עד כה. יש בה הבדלים משמעותיים רבים: ה"למידה" הטכנולוגית נעשית על ידי אין ספור מרכיבים, שאינם שקופים ואינם חשופים בפני האדם, וממילא מדובר בסוג של "קופסה שחורה" הפועלת במרחב האנושי ללא כלי בקרה והנחיה.

הבינה המלאכותית עוסקת במצבים בהם יש יותר מתשובה אחת נכונה למציאות הנתונה, וממילא היא "בוחרת" מבין האפשרויות לאור עקומות הלמידה שלה, ולא מתנהלת לאור אלגוריתמים מעוצבים מראש בלבד; ה"למידה" שלי נעשית בעיקר על ידי פרקטיות וניתוח מצבים לאור התועלת שבהם, ועל כן לסוגיות האתיות יש מקום נמוך במערכות שלה, ועוד ועוד.

בשל כך, יש בה פוטנציאל פגיעה עצום לאנושות, ובתוכה למערכות החיים האתיים. האפשרות שהיא תיכנס לסחרור בלתי נשלט בתחום הביטחון, התשתיות וכדו', נולד אמנם בסרטי המדע הבדיוני, אולם נפילות בנקים כבר הראו את האפשרויות האלה; יש בה סיכון עצום לזכויות האדם, אפליה, חוסר שוויון, שליטה על תודעת אנשים; היא מקדמת את איבוד המשמעות של כלים אנושיים, כגון כלים רגשיים ואומנותיים; הפרטיות תהפוך למותג ארכיאולוגי וכדו'. כל זה, בלי יכולת לקבל הסכמה מדעת, ולאפשר את הדעת לקבלת הסכמה זו.

המודעות לסכנות – אף היא כבר חלק מהארכיאולוגיה, שכן הרכבת כבר יצאה מזמן לדרך. מאוחר מאוד, אך לא מאוחר מידי, אנו נדרשים לכונן את העקרונות היסודיים של השימוש בה. כינון זה מחייב שתי הכרעות יסוד. ראשונה בהן היא ההכרעה המוסדית – כאן לא תועיל רק חקיקה, רגולציה או אמנות בינלאומיות, אם כי גם אלו חיוניות, והן מפגרות מאוד אחרי המציאות. זו חייבת להיות מערכה כללית, המעצבת את מערכת החינוך ובעיקר זו האקדמית-טכנולוגית, מעצימה את מקומם של אוצרות הרוח כחלק בלתי נפרד מפיתוח עוצמות המסוגלות להתמודד עם הסכנות ועוד ועוד. 

שניה היא ההכרעות המהותיות, בדבר כללי כינונה של הבינה המלאכותית. אחת הדוגמאות לכלל זה היא קביעת התקן המחייב יכולת בקרה אנושית על התהליכים המתרחשים, התביעה מ"הקופסה השחורה" להיות מסוגלת "להסביר" את הכרעותיה, והשקיפות החיונית של כל תהליך שמתרחש בה. דוגמה נוספת היא קביעת המסגרת של הבינה המלאכותית, ברוחו של אסימוב (סופר המדע הבדיוני שניסח את הכללים האתיים של הרובוטים הדמיוניים), אך מעודכנים להיבטים המהפכניים של הבינה המלאכותית.

"אל תגידו זה לא קשור אלי. קשה לאדם מן השורה לדעת כמה הכרעות הנוגעות לו כבר מתקבלות בטכנולוגיות השונות של בינה מלאכותית. כשאתם לא מקבלים הלוואה מהבנק, כשאתם מוצפים חדשות מסוג מסוים בלבד הכובש את תודעתכם, כשאתם נחשפים לאין ספור תדובוצ שליליות לקורות חיים ששלחתם - תאלצו להיזכר בעובדה שלא הייתם חלק מהתביעה לעצב באופן אתי את השימוש בטכנולוגיות אלו".

 הכותב הוא ראש תחום אתיקה בארגון רבני צהר וצפוי להעביר הרצאה בנושא זה בויעידת ירושלים לפכ"מ שתתקיים ב-29.5 באוניברסיטה העברית בירושלים

👈 אומץ הוא לא רק בשדה הקרב - הכנס שישבור לכם את הקונספציה. יום ראשון הקרוב 31.3 מלון VERT ירושלים לפרטים נוספים לחצו כאן