احتمال وجود تعصب، نژادپرستی و جانب گرایی در الگوریتم های هوش مصنوعی از نگرانی های عمده ی محققان است و در الگوریتم های تشخیص صدا هم دیده می شود.

اتکا به الگوریتم ها و واگذار کردن تصمیم گیری های مهم به آن ها، روز به روز در دنیای فناوری بیشتر می شود. درواقع انسان ها بیش از همیشه تصمیم گیری را برعهده ی الگوریتم ها می گذارند تا شاید راحت تر زندگی کنند. ازطرفی این تصور وجود دارد که الگوریتم های کامپیوتری و هوش مصنوعی به صورت کلی، به تعصب های رایج در میان انسان ها دچار نیستند. ازطرفی، الگوریتم ها براساس داده ها آموزش می بینند و داده ها با همان تعصب ذاتی انسانی جمع آوری شده اند. درنتیجه امروز شاهد الگوریتم های هوش مصنوعی هستیم که تعصب و بعضا نژادپرستی توسعه دهنده های خود را تکرار می کنند. تاکنون مثال های متعددی از تعصب در تصمیم گیری الگوریتم های هوش مصنوعی دیده شده است. ظاهرا اکثر الگوریتم ها به تعصب دچار هستند.
محققان دانشگاه استنفورد در جدیدترین تحقیقات خود، حوزه ی جدیدی را کشف کرده اند که احتمالا از خطر تعصب و نژادپرستی الگوریتمی در امان نیست. الگوریتم های تشخیص صدا که کاربردهای متنوعی از تبدیل ساده ی صوت به متن تا دریافت دستورهای صوتی در گوشی های هوشمند را انجام می دهند، دچار تعصب ذاتی هستند. ظاهرا این الگوریتم ها در تشخیص صدای افرادی با نژاد آفریقایی آمریکایی مشکلات عملکردی پیدا می کنند. البته برخی شواهد نشان می دهد که مختصات جغرافیایی هم در عملکرد آن ها تأثیر دارد.
سیستم های تشخیص صدا امروز به بخشی مهم و حیاتی در دنیای فناوری تبدیل شده اند. تقریبا هر شرکت بزرگ دنیای فناوری، سیستم تشخیص صدای اختصاصی خود را دارد. گروه تحقیقات برای آزمایش خود سیستم تشخیص صدای شرکت های آمازون ، اپل ، گوگل ، مایکروسافت و IBM را مورد بررسی قرار داد. اگرچه برخی از سرویس ...

هر کدام از تگ‌های فوق را که مناسب این خبر نمی‌دانید، بازدن x آن را حذف کنید. از همکاری شما سپاسگزاریم.
سرخط اخبار