چگونه می توان از تعصبات هوش مصنوعی جلوگیری کرد؟
هنوز هم به اندازه کافی زمان هست از اینکه هوش مصنوعی کنترل کل جهان را به دست بگیرد جلوگیری کنیم.
هوش مصنوعی همه جا هست. نقشه های تلفن همراه به ما کمک میکند مسیر خود را پیدا کنیم، الگوریتم ها می توانند خودرو ها را کنترل کنند، دستیار های مجازی کمک می کنند امور مربوط به خانه و همچنین کارهای خود را راحت تر انجام دهیم و کدهای هوشمند می توانند آهنگ های مورد علاقه ما را تولید کنند. همه این موارد به وسیله هوش مصنوعی انجام میشود .تیم ilikephp مقاله ای با موضوع "تاثیر هوش مصنوعی در آینده موسیقی" نوشته است که پیشنهاد می کنیم آن را مطالعه کنید.
هوش مصنوعی در کنار مزیت هایی که دارد، می تواند خطرناک هم باشد. Elon Musk، مدیرعامل تسلا، هشدار داد گسترش هوش مصنوعی آن هم به صورت نامنظم و غیر قانونی میتواند بزرگترین ریسکی باشد که در تمدن آینده با آن روبرو خواهیم شد. سیستم های خودکار احتمالاً تعصبات را از برنامهنویسان انسانی فراگیری خواهند کرد و متخصصان هوش مصنوعی نگران این موضوع هستند و هنگامی که این تعصب به صورت الگوریتم هایی که هوش مصنوعی را قدرتمند می کنند کد نویسی شود، حذف آن غیر ممکن خواهد شد.
نمونه های تعصبات هوش مصنوعی بسیار زیاد است. در جولای سال ۲۰۱۵، سیستم عکس گوگل تصاویر افراد سیاه پوست را به عنوان گوریل علامت گذاری کرد. در ماه مارس سال ۲۰۱۸،CNET گزارش، داد آمازون و دستگاه های هوشمند گوگل نمی توانند افرادی که لهجه دارند را به خوبی درک کنند. در اکتبر ۲۰۱۸، آمازون ابزار استخدام شغلی بر اساس هوش مصنوعی ایجاد کرد که ظاهراً به تبعیض علیه زنان ختم می شد، در می ۲۰۱۹، گزارشی از سازمان آموزشی، علمی و فرهنگی سازمان ملل متحد(یونسکو) کشف شد که نشان می داد دستیار های شخصی هوش مصنوعی می توانند کلیشه های جنسیتی را گسترش دهند.
CNET برای اینکه بهتر درک کنید هوش مصنوعی چگونه اداره می شود و همچنین چگونه می توان از تعصبات انسانی که باعث تغییر سیستمهای خودکار می شود جلوگیری کنیم، با Kathy Baxter و Richard Socher که متخصصان salesforce هوش مصنوعی هستند، در سانفرانسیسکو صحبت کرد.Baxter گفت: توسعه این تکنولوژی ممکن است که چالش برانگیز باشد و همچنین در این فرآیند به نکات ظریف تری باید توجه شود.
او همچنین گفت در تلاش است هوش مصنوعی را به صورتی در صنعت توسعه دهد که مسئولیت پذیر، متفکر و حامی حقوق انسانی باشد و ما این اطمینان را می دهیم این فرآیند حقوق بشر را نقض نخواهد کرد. همچنین این فرآیند باید کاملا شفاف باشد. باید بتوان عملکرد آن را به کاربران توضیح داد و این فرصت را به آنها داد تا بتوانند با هوش مصنوعی تصمیمات آگاهانه بگیرند.
Boxter گفت Salesforce و سایر شرکت های فناوری در حال توسعه راهنمایی هایی برای داده های استفاده شده در مدل داده هوش مصنوعی برای صنعت هستند. فاکتور هایی را که در این مدل استفاده شده مانند سن، نژاد و جنسیت را نشان می دهیم و اگر یکی از داده های این دستگاه ها را استفاده کنید، پرچمی را به افتخار شما بلند خواهیم کرد.
نظرات کاربران