linked in

שלח פרופיל עכשיו >

ההרשמה נקלטה

בהצלחה!

פותחים את הקופסה השחורה

20/06/2019 18:11:13
פותחים את הקופסה השחורה

הטוב, הרע והלא נודע במכונה הלומדת

ב-2017, חשף צוות חוקרים בגוגל כי מערכת האינטליגנציה המלאכותית המתקדמת דיפ מיינד (שגוגל רכשה מספר שנים קודם לכן לאחר שניצחה בתחרות מול פייסבוק), בחרה להשיג יעדים בדרכים אגרסיביות ותחרותיות על פני דרך של שיתוף פעולה. באותה שנה, ניסוי בבינה מלאכותית שערכה הענקית המתחרה פייסבוק עלה על שרטון (או לפחות ככה בשרו הכותרות), כאשר שני בוטים פיתחו שפה פרטית משלהם, והפתיעו את החוקרים. שנה קודם לכן, טאי, הבוט של מיקרוסופט, יצאה מכלל שליטה בטוויטר עם התבטאויות אנטישמיות והצעות מגונות. 

למשרות תוכנה במיטב הסטרטאפים בארץ ובעולם - שלחו קורות חיים או פרופיל לינקדאין 

כשמדובר בניסויים/ניסיונות, הבעיה פחות חמורה, אבל היא הופכת לקריטית, כאשר מתגלות הטיות בשיפוט של אלגוריתמים מתקדמים, שכבר פעילים בשוק העבודה ובמערכות הבריאות, הכספים והמשפט, במיוחד כאשר מדובר בהחלטות של חיים ומוות ברפואה, אבל גם כאשר אלה החלטות אחרות שמשפיעות על חיינו כמו מסגרת אשראי או חומרה של פסקי דין. בארה"ב, התגלה למשל, שמודלים שאומצו במערכת המשפט כדי להעריך את הסיכון לכך שעבריינים יחזרו לפשוע הפלו לרעה שחורים. לכן ממשלות, ענקיות הטכנולוגיה, חברות וגופים שונים בתעשיית ההייטק כבר מבינים שחייבים להיערך לעידן שבו נצטרך להבין יותר "איך האלגוריתמים המתקדמים ביותר חושבים".

פרדיגמה של רשתות נוירונים ו-"קופסה שחורה"

הציבור הרחב באופן כללי חווה אלגוריתמים כ-קופסה שחורה". מספרים לנו שהאלגוריתם של פייסבוק "השתנה", אבל אין לנו באמת מושג איך ולמה. מאשימים את האלגוריתם שאחראי על תוצאות החיפוש בגוגל בהטיות, אינטרסים ובפגיעה במתחרות, אבל אין לנו באמת מושג איך זה עובד. אבל זאת רחוק מלהיות בעיה של רק מי שאינו איש מקצוע.

הפרדיגמה השלטת בתחום פיתוח הבינה היא Neural Networks, פרדיגמה השואבת את השראתה מרשתות הנוירונים במוח האנושי. מערכת כזאת לומדת ומשתפרת כל הזמן ככל שמוזנים אליה יותר נתונים. היא לא נסמכת על כללים מדויקים, אלא על מה שעובד מספיק טוב, מספיק מהפעמים. באמצעות אימון ניתן "לאלף" אותה להפיק את התוצאות הטובות ביותר. יחד עם זאת, המשמעות היא גם שאפשר לאמן מערכת כזאת בצורה שתערער את הידע שרכשה לפני כן (כפי שקרה במקרה של טאי, הבוט של מייקרוסופט). ואף יותר מכך, מערכת כזאת היא עדיין כיום בבחינת "קופסה שחורה" (כפי שפעם הגדיר הפסיכולוג פרדריק סקינר את האינטליגנציה האנושית), כלומר המפתחים שאחראים לפיתוחה מבינים את הקלט שהמערכת קיבלה, ויודעים לנתח את הפלט שהיא מספקת, אבל אופן עיבוד המידע בתוך המערכת נשאר מסתורי עבורם.

ענקיות הטכנולוגיה נערכות; יבמ: "למפתחים יש אחריות אישית"

ב-2018 פרסמה גוגל מסמך המתאר את שבעת עקרונות האתיקה עליהם היא מסתמכת, כאשר היא מפתחת ומשתמשת בבינה מלאכותית, ביניהם: הימנעות מיצירת או חיזוק הטיה שאינה הוגנת. אורי אליאבייב מספר איך במהלך הרצאה שהתקיימה לאחרונה בישראל, תיאר ג'ף דין, מי שאחראי על תחום הבינה המלאכותית בגוגל, עד כמה ברצינות לוקחת גוגל את מסמך העקרונות הזה: כל עובד שיש לו נגיעה לתחום חייב להכיר את המסמך. נוסף על כך, לפני כל עבודה על פרויקט כזה, מוקם צוות יועצים פנימי, שתפקידו לוודא שאכן אין בעיות אתיות עם המודל. גוגל רחוקה מלהיות היחידה שמתייחסת לנושא, למשל, גם אינטל פרסמה ב-2018 דו"ח שמתאר את מדיניות החברה בסוגיות האתיות הסובבות את הבינה המלאכותית ופרטיות וגם מייקרוסופט מתייחסת לנושא. לדברי קייט קרופורד, חוקרת במייקרוסופט ויזמית-שותפה ב-AI Now – זכות האזרחים לדעת איך מערכות אשר מקבלות החלטות לגביהם פועלות, וגם איך הן נבחנו ואיך הוכחה יעילותן. ב-יבמ סבורים שללמפתחים צריכה להיות אחריות אישית על הבינה המלאכותית שהם מתכננים ומפתחים, וב-MIT החליטו שמפתחי העתיד לא יכולים יותר להסתמך רק על הידע הטכנולוגי, והקימו תכנית שמשלבת הכשרה פילוסופית-חברתית.

ממפים את אתגרי הבינה המלאכותית (דוח בנושא אתיקה שפורסם על ידי מוסד שמואל נאמן בטכניון)  

מוסד שמואל נאמן, פרסם דוח בנושא אתיקה, משפט ופרטיות, אשר הוגש למועצה הלאומית למחקר ופיתוח במשרד המדע והטכנולוגיה. על הדוח המרתק אמון צוות חוקרים בראשות ד"ר דפנה גץ. במסגרת הדוח, סוקרים החוקרים את האתגרים הגדולים שעומדים בפני הבינה המלאכותית היום. ביניהם הם מציינים את אתגר הסיבתיות, אשר מתייחס לקושי של חוברות המייצרות בינה מלאכותית, אלגוריתמים לומדים ורובוטים לחזות איך יתנהלו המוצרים שלהם מהרגע בו ישתחררו לאוויר העולם;  אתגר הנציגות ההוגנת - בינה מלאכותית מיוצרת על-ידי חברות, שבחלק מהמקרים שולטות ביד רמה על נישה מסוימת, למשל גוגל בתחום מנועי החיפוש, פייסבוק בתחום הרשתות החברתיות, ומערכת הבינה המלאכותית יכולה לקבל החלטה אשר נותנת משקל גדול יותר לצרכי החברה שפיתחה ומפעילה אותם, על חשבון צרכי הלקוח; אתגר הבינה המלאכותית הרמאית, כאשר חברות משתמשות בבינה מלאכותית כדי לעקוף את החוק (למשל, ב-2015 נחשף כי חברת פולקסווגן הטמיעה ברכביה אלגוריתם, שסייע לחברה לרמות לגבי רמת פליטות הגזים המזיקים של הרכב). הקליקו לרשימה המלאה




חזרה לבלוג >      חיפוש משרות >