گوگل: الگوریتم های تقویت کننده نژادپرستی باید متوقف شوند

دو مدیر شرکت گوگل گفتند برخی الگوریتم‌های هوش مصنوعی به جوامع حاشیه نشین آسیب می‌زنند که برای جلوگیری از آن باید اقدام شود.

این مدیران ارشد گوگل درباره راه‌هایی که فناوری یادگیری ماشین ممکن است به جامعه‌های حاشیه‌ای مانند سیاه پوستان در آمریکا و سراسر جهان آسیب بزند گفته‌اند. هوش مصنوعی معمولاً توسط پلیس برای نظارت گسترده بر روی مردم مورد استفاده قرار می‌گیرد و ممکن است مورد استفاده برای مجازات‌های مغرضانه قرار بگیرد. البته این بدان معنا نیست که تکنولوژی هم نژاد پرستانه شده، اما انسان‌ها ممکن است با تعصب‌های بیجا، از تکنولوژی سوء استفاده کرده و از آن در این جهت استفاده کنند. برای مثال، چندی پیش در آمریکا فرد آفریقایی تباری بدلیل تشخیص اشتباه سیستم شناسایی چهره و تطابق چهره آن فرد با یک دزد، به اشتباه مورد بازداشت قرار گرفته بود. مطالعات قبلی نشانگر این بوده که سیستم‌های تشخیص چهره، گاهاً در افراد سیاه پوست اشتباه می‌کنند و نمی‌توانند بین آن‌ها تمایز قایل شوند؛ و این آنجایی است که نظارت عمومی در دنیای واقعی عملکرد افتضاحی دارد و ممکن است باعث دردسر شهروندان سیاه پوست شود.

در سال‌های اخیر، گوگل بدلیل مشکلات الگوریتم‌های هوش مصنوعی‌اش که افراد را تحت تأثیرات منفی قرار داده، بارها در رسانه‌ها مورد نقد قرار گرفته است. برای مثال گوگل ابزاری برای طبقه بندی نظرات مردم در شبکه‌های اجتماعی طراحی کرده که در عین مفید بودن مضراتی را هم به همراه داشته است و مثلاً عباراتی که در آن‌ها از کلمه سیاه‌ پوست استفاده شده را به اشتباه در دسته نظرات منفی قرار داده است.

گوگل اعلام کرده که چنین اشتباهاتی ممکن است رخ بدهند ولی آن‌ها آگاه هستند و به محض رخ دادن هرگونه مشکلی در این زمینه سریعاً آن را برطرف خواهند کرد تا برای جوامع کوچکتر هم فضایی برای شنیده شدن صدایشان ایجاد کنند.


بیشتر بخوانید: استفاده از هوش مصنوعی برای ترجمه کتیبه‌های دوران هخامنشیان


منبع

Digitaltrends

 

 

تاریخ مطلب : 9 تیر 1399 - 10:18

به این مطلب امتیاز دهید :



نظر خود را در مورد این مطلب بیان کنید .

لطفا نام و نام خانوادگی خود را وارد کنید (مثلا : رضا دهقان)
لطفا پست الکترونیک خود را وارد کنید پست ااکترونیک وارد شده معتبر نیست
فیلد نظر شما اجباری است .



Design and Development by Atriatech