The integration of Artificial Intelligence (AI) into modern warfare raises fundamental questions about the future of armed conflict and the boundaries of human accountability. This lecture examines the transition from assistive technologies to lethal autonomous weapons capable of making battlefield decisions without human intervention. These implications are reshaping the face of the battlefield, necessitating an urgent discussion on moral norms and international laws of war. The history of military computing has come a long way since the development of ENIAC. Today, organizations like DARPA and NASA lead breakthroughs in cognitive computing. This lecture reviews key historical events where algorithms played a decisive role in defense systems and highlights key figures in the scientific community who warn against an unbridled technological arms race. The entry of AI into the security arena is not merely a technological upgrade, but a strategic transformation that alters the very concept of global deterrence. From a technical perspective, the discussion focuses on Machine Learning capabilities embedded in platforms such as advanced UAVs, missile interception systems, and cutting-edge aircraft like the F-35. It examines target identification mechanisms based on Vision AI and real-time data processing, while pointing to the "black box" dilemma—the situation in which a machine's decision-making process cannot be fully explained. These findings raise grave concerns regarding identification errors, algorithmic biases, and the critical operational need for constant human oversight. Ultimately, the expanding adoption of AI in military service tests the human conscience against the potential dehumanization of war. Can moral authority be delegated to lines of code, and who will bear responsibility when an autonomous system commits a war crime? These open questions will continue to challenge world leaders, software developers, and the general public in the coming years, as technology continues to outpace legislation and ethics.
אתיקה של בינה מלאכותית בשדה הקרב | הרצאה
שילובן של מערכות בינה מלאכותית (AI) בלחימה מודרנית מעלה שאלות יסודיות על עתיד הסכסוכים המזוינים ועל גבולות האחריות האנושית. ההרצאה בוחנת את המעבר מטכנולוגיות מסייעות לנשק אוטונומי קטלני, המסוגל לקבל החלטות בשטח ללא התערבות יד אדם. השלכות אלו משנות את פני שדה הקרב ומחייבות דיון דחוף בנורמות המוסריות ובחוקי המלחמה הבינלאומיים. ההיסטוריה של המחשוב הצבאי עברה כברת דרך ארוכה מאז פיתוח ה-ENIAC ועד לימינו, שבהם ארגונים כמו DARPA ו-NASA מובילים פריצות דרך בחישוב קוגניטיבי. ההרצאה סוקרת אירועי מפתח שבהם אלגוריתמים שיחקו תפקיד מכריע במערכות הגנה, ומפנה זרקור אל דמויות מפתח בקהילה המדעית המזהירות מפני מרוץ חימוש טכנולוגי חסר רסן. כניסת ה-AI לזירה הביטחונית אינה רק שדרוג טכנולוגי, אלא תמורה אסטרטגית שמשנה את מושג ההרתעה הגלובלי. מבחינה טכנית, הדיון מתמקד ביכולות של Machine Learning המוטמעות בפלטפורמות כגון כטב"מים מתקדמים, מערכות יירוט טילים ודגמי מטוסים דוגמת ה-F-35. נבחנים מנגנונים של זיהוי מטרות מבוסס Vision AI ועיבוד נתונים בזמן אמת, תוך הצבעה על הבעייתיות של "הקופסה השחורה" – המצב שבו לא ניתן להסביר את תהליך קבלת ההחלטות של המכונה. ממצאים אלו מעלים חששות כבדים לגבי טעויות בזיהוי, הטיות אלגוריתמיות והצורך המבצעי בגיבוי אנושי קבוע. בסופו של דבר, האימוץ המתרחב של בינה מלאכותית בשירות הצבא מעמיד למבחן את המצפון האנושי אל מול האפשרות של דה-הומניזציה של המלחמה. האם ניתן להאציל סמכויות מוסריות על שורות קוד, ומי ישא באחריות כאשר מערכת אוטונומית תבצע פשע מלחמה? השאלות הפתוחות הללו יוסיפו להעסיק את מנהיגי העולם, מפתחי התוכנה והציבור הרחב בשנים הקרובות, בעוד הטכנולוגיה ממשיכה להקדים את החקיקה והאתיקה.
לסרטון זה אין כתוביות זמינות ביוטיוב.
ניתן ליצור תמלול מקורב באמצעות AI על בסיס פרטי הסרטון.




We use cookies to improve your experience
For more information, see our Privacy Policy