Digital Tהינק Tקרסול (DTT)

מסע בין כוכבים היום: האנושות לא מסוגלת לשלוט על בינה מלאכותית סופר אינטליגנטית?

האנושות עשויה שלא להיות מסוגלת לשלוט על בינה מלאכותית סופר אינטליגנטית (AI), מאמינים מחברי המחקר העיוני האחרון. חוץ מזה, אולי אפילו אנחנו לא יודעים שיש לנו סוג כזה AI (בינה מלאכותית) יצרו.
ההתקדמות המהירה של אלגוריתמי בינה מלאכותית מתרחשת לנגד עינינו. מכונות מנצחות נגד בני אדם בזמן פוקר, מנצחות טייסי קרב מנוסים בלחימה אווירית, לומדות מהיסוד באמצעות ניסוי וטעייה, מבשרות מהפכה גדולה ברפואה ומדעי החיים, מאבחנות כמו גם רופאים ויכולות להבדיל טוב יותר בין ציפורים מאשר בני אדם. זה מראה עד כמה התקדמות מהירה היא בתחומים רבים.

מקור תמונה: Pixabay


מסע פרק מסע בין כוכבים: כללי / אנדרואידים - AI

עם התקדמות זו עולה החשש האם נצליח לשלוט על בינה מלאכותית. דאגות שהועלו במשך כמה עשורים לפחות. אנו מכירים את השלושה המפורסמים מאז 1942 חוקי הרובוטשהעדיפו את הסופר אייזק אסימוב מתואר בסיפורו הקצר "משחק התג":

1) אסור לרובוט לגרום נזק לאדם או לאפשר נזק לאדם עקב חוסר מעש,

2) על רובוט לציית לפקודותיו של אדם, בתנאי שאלו אינם מפרים את החוק הראשון, וכן

3) רובוט צריך להגן על עצמו כל עוד הוא לא עובר על החוק הראשון או השני.

מאוחר יותר הוסיף אסימוב נוסף חוק כולל 0: אסור לרובוט לגרום נזק לאנושות או לגרום נזק ממחדלבשנת 2014, הפילוסוף ניק בוסטרום, מנהל המכון לעתיד האנושות באוניברסיטת אוקספורד, חקר כיצד AI סופר-אינטליגנטי יכול להרוס אותנו, כיצד אנו יכולים לשלוט בו ומדוע שיטות שליטה שונות אינן יכולות לעבוד. בוסטרום זיהה שתי בעיות בשליטה על AI. הראשון הוא שליטה במה AI יכול לעשות. לדוגמא, אנו יכולים לשלוט אם עליו להתחבר לאינטרנט. השנייה היא שליטה במה שהיא רוצה לעשות. לדוגמא, על מנת לשלוט בו עלינו ללמד אותו את עקרונות הדו קיום השלום עם בני האדם. כפי שציין בוסטרום, סביר להניח שבינה מלאכותית סופר אינטליגנטית תוכל להתגבר על כל המגבלות שנרצה לשים עליה במה שהיא יכולה לעשות. באשר לבעיה השנייה, בוסטרום מטיל ספק בכך שאנחנו AI אינטליגנטי במיוחד יכול ללמד הכל.

כעת החליטו מנואל אלפונסקה וצוותו מאוניברסיטת אוטונומה דה מדריד להתמודד עם בעיית השליטה בבינה מלאכותית. הוא תיאר את תוצאות עבודתו ב כתב העת למחקר בינה מלאכותית.

הספרדים מציינים כי כל אלגוריתם שאמור להבטיח ש- AI לא יפגע באנשים חייב לדמות תחילה התנהגות שעלולה לגרום לפגיעה באדם כדי שהמכונה תוכל לזהות ולעצור אותה. עם זאת, לטענת החוקרים, אף אלגוריתם לא יוכל לדמות את התנהגות הבינה המלאכותית ולקבוע בוודאות מוחלטת האם פעולה מסוימת עשויה לגרום לפגיעה בבני אדם. זה כבר הוכח החוק הראשון של אסימוב היא בעיה שלא ניתן לחשב.
בנוסף, יתכן ואנחנו אפילו לא יודעים שיצרנו מכונה אינטליגנטית במיוחד, מסכמים החוקרים. הסיבה היא ש משפט רייס, האומר כי אינך יכול לנחש את התוצאה של תוכנית מחשב רק על ידי הסתכלות בקוד שלה.

אבל גם לאלפונסקה ועמיתיו יש חדשות טובות. ובכן, אנחנו כבר לא צריכים לדאוג מה AI חכם במיוחד הולך לעשות. ישנן, למעשה, שלוש מגבלות עיקריות לסוג המחקר שהספרדים מבצעים. ראשית, AI סופר אינטליגנטי כזה יופיע רק בעוד 200 שנה. שנית, לא ידוע אם בכלל ניתן ליצור סוג כזה של בינה מלאכותית, כלומר מכונה שהיא אינטליגנטית בתחומים רבים כמו בני אדם. ושלישית, גם אם לא נצליח לשלוט ב- AI סופר אינטליגנטי, עדיין צריך להיות אפשרי לשלוט על בינה מלאכותית שהיא סופר אינטליגנטית בטווח צר.