Digital Tהינק Tקרסול (DTT)

כיצד להערים על בינה מלאכותית - אנושית לעומת מכונה.

מערכות מחשב AI מוצאים את דרכם לאזורים רבים בחיינו ומציעים פוטנציאל רב, החל מרכבים עם נהיגה עצמית וכלה בסיוע לרופאים עם אבחונים ורובוטים לחיפוש והצלה אוטונומיים.

עם זאת, אחת הבעיות הגדולות שלא נפתרו, במיוחד בענף ה- AI המכונה "רשתות עצביות", היא שלעתים קרובות מדענים אינם יכולים להסביר מדוע הדברים משתבשים. זאת בשל חוסר הבנה של תהליך קבלת ההחלטות במערכות AI. בעיה זו ידועה כבעיית "הקופסה השחורה".

מי יותר חכם?

פרויקט מחקר חדש בן 15 חודשים של אוניברסיטת לנקסטר, בו מעורבת גם אוניברסיטת ליברפול, נועד לפתוח את סודות בעיית הקופסה השחורה ולמצוא דרך חדשה "למידה עמוקה"מצא מודלים ממוחשבי AI אשר מקבלים החלטות שקופות ומוסברות.

הפרויקט "לקראת מערכות למידה רובוטיות אחראיות ומוסברות"יפתח סדרה של אימות אבטחה ונהלי בדיקה לפיתוח אלגוריתמים של בינה מלאכותית. אלה יסייעו להבטיח שההחלטות שקיבלו המערכות יהיו חזקות וניתנות להסבר.

מקור תמונה: Pixabay


הדרכה

החוקרים ישתמשו בטכניקה הנקראת "אימון הפוך". זה מורכב מהצגת המערכת במצב נתון בו היא לומדת כיצד לבצע פעולה - למשל. ב. איתור והרמת חפץ. לאחר מכן החוקרים משנים אלמנטים שונים בתרחיש כגון צבע, צורה, סביבה ומתבוננים כיצד המערכת לומדת באמצעות ניסוי וטעייה. החוקרים מאמינים כי תצפיות אלה יכולות להוביל להבנה טובה יותר של האופן בו המערכת לומדת ותובנת את תהליך קבלת החלטות הוענק.


על ידי פיתוח דרכים ליצור מערכות עם רשתות עצביות שיכולות להבין ולחזות החלטות, המחקר יהיה המפתח לפתיחת מערכות אוטונומיות באזורים קריטיים לבטיחות כגון כלי רכב ורובוטים בתעשייה.

ד"ר. וונג'י רואן, פרופסור בבית הספר למחשוב ותקשורת באוניברסיטת לנקסטר וחוקר ראשי בפרויקט, אמר, "למרות למידה עמוקה מכיוון שאחת הטכניקות המדהימות ביותר של בינה מלאכותית הצליחה מאוד ביישומים רבים, יש לה בעיות משלה בשימוש במערכות קריטיות לביטחון, כולל מנגנוני קבלת החלטות אטומים ופגיעות להתקפות יריבות. "פרויקט זה מהווה הזדמנות מצוינת עבורנו לסגור את הפער המחקרי בין טכניקות למידה עמוקה למערכות קריטיות לבטיחות.