בעידן שבו טכנולוגיה משחקת תפקיד מרכזי בכל תחומי החיים, כולל בתחום הצבאי, ישנם ארגונים שמעלים שאלות אתיות בנוגע לפיתוח ושימוש בטכנולוגיות מתקדמות. אחד מהארגונים הללו הוא אנת’רופיק, חברה העוסקת בפיתוח בינה מלאכותית, אשר הציבה קווים אדומים מול הפנטגון בנוגע לפיתוח טכנולוגיות נשק אוטונומיות ומערכות מעקב המוניות.
אנת’רופיק, שנוסדה על ידי יוצאי OpenAI, שמה לה למטרה לפתח בינה מלאכותית שתהיה בטוחה למשתמשיה ולחברה בכללותה. החברה מאמינה כי יש להימנע מפיתוח טכנולוגיות שעלולות לשמש לפגיעה בזכויות האדם ובביטחון הציבור, ולכן היא מתנגדת לשיתוף פעולה בפיתוח מערכות נשק אוטונומיות ולמערכות מעקב המוניות.
החשש המרכזי של אנת’רופיק הוא שטכנולוגיות בינה מלאכותית יכולות לשמש ליצירת מערכות נשק שאינן נשלטות על ידי בני אדם, דבר העלול להוביל לתוצאות לא צפויות ואף קטלניות. מערכות נשק אוטונומיות, כמו רחפנים ולוחמי רובוטים, יכולות לפעול ללא התערבות אנושית ובכך להעלות את הסיכון לפגיעות לא מכוונות באזרחים ובתשתיות אזרחיות.
בנוסף, מערכות מעקב המוניות המופעלות על ידי בינה מלאכותית יכולות להוות איום על פרטיות האזרחים. אנת’רופיק מזהירה כי שימוש בלתי מוגבל במערכות כאלו עלול לפגוע בזכויות הפרט וליצור חברה שבה כל תנועה של אזרח נתונה למעקב ולשליטה.
עמדת אנת’רופיק מול הפנטגון מעלה שאלות חשובות על הגבולות האתיים בפיתוח טכנולוגיות צבאיות. בעוד שהפנטגון שואף לשלב טכנולוגיות מתקדמות על מנת לשפר את יכולות ההגנה וההתקפה שלו, חשוב לשקול את ההשלכות האתיות של השימוש בטכנולוגיות אלו.
דיונים על גבולות אתיים בטכנולוגיה הם חלק בלתי נפרד מהקדמה, והם מחייבים שיתוף פעולה בין גורמים ממשלתיים, תעשייתיים ואקדמיים על מנת ליצור רגולציה שתבטיח שימוש אחראי ובטוח. מקרה אנת’רופיק והפנטגון הוא דוגמא מצוינת לחשיבות הדיאלוג בנושא זה, ולצורך בעיצוב מדיניות שתאפשר את מימוש הפוטנציאל הטכנולוגי תוך שמירה על ערכים אנושיים.