Blog post with audio player, show notes, and transcript: https://www.preposterousuniverse.com/podcast/2019/01/21/episode-30-derek-leben-on-ethics-for-robots-and-artificial-intelligences/ Patreon:...
פרק 30: דרק לֶבֶּן על אתיקה של רובוטים ובינה מלאכותית
בפרק ה-30 של הפודקאסט, אנו צוללים אל אחד הנושאים הבוערים והמרתקים ביותר בעידן הטכנולוגי: האתיקה של המכונה. אורח הפרק הוא דרק לֶבֶּן, חוקר ופילוסוף המתמחה בממשק שבין מוסר לטכנולוגיה, לשיחה מעמיקה על האופן שבו עלינו לתכנת עקרונות מוסריים לתוך המערכות שינהלו את חיינו בעתיד הקרוב. ככל שהבינה המלאכותית הופכת לאוטונומית יותר – ממכוניות ללא נהג ועד למערכות דירוג אשראי ואבחון רפואי – השאלה היא כבר לא רק "מה המכונה יכולה לעשות", אלא "מה מותר לה לעשות" וכיצד היא צריכה להכריע במצבים של קונפליקט מוסרי. במהלך השיחה, לֶבֶּן מציג גישה ייחודית המבוססת על תורת המשחקים והפילוסופיה של ג'ון רולס. בניגוד לגישות התועלתניות המסורתיות, המנסות למקסם את "הטוב הכללי" (מה שעלול להוביל להקרבת הפרט למען הכלל), לֶבֶּן מציע מודל של "צדק כהגינות". הוא בוחן כיצד ניתן לתרגם מושגים פילוסופיים מופשטים לקוד אלגוריתמי שיוכל להנחות רובוטים במצבי קצה, כמו "בעיית הקרונית" המפורסמת, שבה מכונה חייבת לבחור בין שתי תוצאות טרגיות. הדיון חורג מהפן התאורטי ונוגע בהשלכות המעשיות על עיצוב המדיניות והתעשייה הגלובלית. מעבר לשאלות על בטיחות בדרכים, הפרק עוסק באתגרים רחבים יותר של הטיות במערכות למידת מכונה. אנו בוחנים כיצד אלגוריתמים עלולים לשמר ואף להקצין אפליה גזעית או מגדרית הקיימת בנתונים היסטוריים, וכיצד ניתן לבנות מערכות "חסינות מוסרית" שידעו לזהות ולתקן הטיות אלו. זהו מסע מרתק אל עבר העתיד שבו הגבול בין ביולוגיה לסיליקון מטשטש, והצורך בהגדרה מחודשת של המושג "אחריות" הופך לקריטי מאי פעם. למידע נוסף, הערות פרק ותמליל מלא של השיחה, אתם מוזמנים לבקר באתר הרשמי: https://www.preposterousuniverse.com/podcast/2019/01/21/episode-30-derek-leben-on-ethics-for-robots-and-artificial-intelligences/ לתמיכה בפודקאסט וקבלת תכנים בלעדיים, הצטרפו אלינו ב-Patreon.
לסרטון זה אין כתוביות זמינות ביוטיוב.
ניתן ליצור תמלול מקורב באמצעות AI על בסיס פרטי הסרטון.




















We use cookies to improve your experience
For more information, see our Privacy Policy