توئیتر به طراحی نژادپرستانه یکی از الگوریتم‌های خود اعتراف کرد

توئیتر پذیرفته که الگوریتم مورد استفاده آن برای برش زدن و استخراج خودکار چهره افراد در تصاویر عملکرد نژادپرستانه ای دارد و معمولاً سفیدپوستان را به سیاه پوستان ترجیح می‌دهد.

به گزارش خبرگزاری تاریخ ما به نقل از زد دی نت، توئیتر می‌گوید بررسی‌های انجام شده حاکیست الگوریتم یادشده برای استخراج خودکار چهره افراد حداقل ۴ درصد بیشتر به نفع سفیدپوستان عمل کرده و آنها را بر سیاه پوستان ترجیح می‌دهد.

الگوریتم یادشده برای بررسی میزان بی طرفی در زمان شناسایی و استخراج چهره افراد رنگین پوست در مقایسه با افراد سفیدپوست مورد بررسی قرار گرفته است. پیش از این مشخص شده بود این الگوریتم تبعیض جنسیتی انجام نمی‌دهد. اما تبعیض جنسیتی آن در زمان شناسایی زنان سیاه پوست در مقایسه با زنان سفیدپوست بیشتر شده و به ۷ درصد افزایش می‌یابد.

طراحی الگوریتم یادشده از سال ۲۰۱۸ آغاز شده، اما مهندسان توئیتر هنوز موفق نشده‌اند آن را به طور کامل بی طرف و یکدست کنند. این الگوریتم کماکان ابتدا افراد سفیدپوست را شناسایی می‌کند و برای آنها اولویت قائل است. در عین حال الگوریتم یادشده در زمینه شناسایی زنان و مردان به نفع زنان عمل می‌کند و حداقل ۸ درصد به نفع زنان خطا دارد.

ممکن است شما دوست داشته باشید
ارسال یک پاسخ

آدرس ایمیل شما منتشر نخواهد شد.