
ב-27.2.2023 פנינו ליועצת המשפטית לממשלה בבקשה שתפעל לעצור את השימוש שעושה המשטרה במערכת שיטור מנבא המבוססת על בינה מלאכותית. לפי פרסום בכלכליסט נעשה במערכת שימוש בנתב"ג, והחיזוי שהיא מספקת אינו מתבסס על מידע מודיעיני קונקרטי, אלא על חישוב סטטיסטי שהמערכת מבצעת ביחס לנתונים שמוזנים אליה ממאגרים שונים והקשר בין נתונים אלה לבין נטייה לבצע פשע. התוצאה של השימוש במערכת היא יצירת "פרופיל" של מי שיש לו סיכוי גבוה יותר להיות מעורב בעבירות. אזרחים שעונים לפרופיל עשויים להיות מעוכבים ולעבור חיפוש בידי שוטר טרם כניסתם לארץ.
בפנייה טענה עו"ד אן סוצ'יו כי אין להפעיל מערכת כזו, שפוטנציאל הפגיעה שלה בזכויות אדם הוא עצום, ללא הסמכה מפורשת בחוק, ובהסדר מידתי. הוא הסביר שקיים חשש ממשי מפני פרופיילינג גזעי והטיות בקבלת החלטות המבוססות על אמצעי זה. בנוסף, השימוש במערכת מסוג זה מאיין את האפשרות האפקטיבית לביקורת שיפוטית על קבלת ההחלטות המשטרתית, שכן מדובר במערכת לא שקופה שפועלת כ"קופסה שחורה".
פניית האגודה לזכויות האזרח ליועצת המשפטית לממשלה, 27.2.2023
פניית האגודה לוועדת חוקה, 18.5.2023
קישורים:
תומר גנון, ועדת חוקה תדון בשימוש המשטרה במערכת פרופיילינג בנתב"ג, כלכליסט, 18.5.2023
תומר גנון, האגודה לזכויות האזרח ליועמ"שית: "עצרי שימוש במערכת הפרופיילינג בנתב"ג עד חקיקה", כלכליסט, 28.2.2023
תומר גנון, האלגוריתם שיעצור אתכם בנחיתה בנתב"ג, כלכליסט, 10.11.2022