توئیتر به طراحی نژادپرستانه یکی از الگوریتمهای خود اعتراف کرد
توئیتر پذیرفته که الگوریتم مورد استفاده آن برای برش زدن و استخراج خودکار چهره افراد در تصاویر عملکرد نژادپرستانه ای دارد و معمولاً سفیدپوستان را به سیاه پوستان ترجیح میدهد.
به گزارش خبرگزاری تاریخ ما به نقل از زد دی نت، توئیتر میگوید بررسیهای انجام شده حاکیست الگوریتم یادشده برای استخراج خودکار چهره افراد حداقل ۴ درصد بیشتر به نفع سفیدپوستان عمل کرده و آنها را بر سیاه پوستان ترجیح میدهد.
الگوریتم یادشده برای بررسی میزان بی طرفی در زمان شناسایی و استخراج چهره افراد رنگین پوست در مقایسه با افراد سفیدپوست مورد بررسی قرار گرفته است. پیش از این مشخص شده بود این الگوریتم تبعیض جنسیتی انجام نمیدهد. اما تبعیض جنسیتی آن در زمان شناسایی زنان سیاه پوست در مقایسه با زنان سفیدپوست بیشتر شده و به ۷ درصد افزایش مییابد.
طراحی الگوریتم یادشده از سال ۲۰۱۸ آغاز شده، اما مهندسان توئیتر هنوز موفق نشدهاند آن را به طور کامل بی طرف و یکدست کنند. این الگوریتم کماکان ابتدا افراد سفیدپوست را شناسایی میکند و برای آنها اولویت قائل است. در عین حال الگوریتم یادشده در زمینه شناسایی زنان و مردان به نفع زنان عمل میکند و حداقل ۸ درصد به نفع زنان خطا دارد.