fanavaran
آخرین اخبار
سرویس های خبری
پربیننده ترین خبرهای سرویس
یادداشت سرویس
اخبار برگزیده سرویس
گفت و گوی سرویس
گزارش سرویس
{#foreach $T.table as record}{#/for}
کد خبر : 221270
تاریخ انتشار : 17 مهر 1396 9:12

«دیپ مایند» برای بررسی مشکلات هوش مصنوعی واحد اخلاقی دایر کرد

دیپ مایند یا همان بخش تحقیقاتی هوش مصنوعی گوگل که در لندن قرار دارد، واحد جدیدی تاسیس کرده است که در آن قرار است به سوالات اخلاقی و اجتماعی که به واسطه هوش مصنوعی مطرح می شوند، پاسخ داده شود.

نسترن صائبی
براساس گزارش دیپ مایند، هدف از دایر کردن این واحد تحقیقاتی کمک به تکنولوژیست ها برای اخلاق محور کردن تحقیقات شان و کمک به جامعه برای لمس اثرات هوش مصنوعی و بهره وری از آن در همه کارهاست. گفتنی است که نام این کمپانی در سال ۲۰۱۶ پس از آنکه برنامه آلفاگو اولین بار یک بازیکن حرفه ای گو (بازی باستانی آسیایی) را شکست داد، بر سر زبان ها افتاد.
این شرکت از دانشگاه ها و بخش های خیریه مشاوران خارجی دارد که از جمله آنها می توان از جفری ساچز، پروفسور کلمبیایی هوش مصنوعی دانشگاه کلمبیا، نیک بوستروم، پروفسور هوش مصنوعی دانشگاه آکسفورد و کریستیانا فیگوئرز، از کمیته تغییرات اقلیمی نام برد. 
شان لگاسیک، از مدیران واحد جدید دیپ مایند می گوید: این افراد نه تنها تخصص شان را برای ما به ارمغان می آورند، بلکه نظرات و ایده ها و اندیشه های خود را گرد هم می آورند. 
این واحد جدید «واحد اخلاقیات و اجتماعی دیپ مایند» (DeepMind Ethics and Society) نام دارد و البته هیات اخلاقی هوش مصنوعی نیست که دیپ مایند در سال 2014 وعده اش را داده بود. این هیات اخلاقی از ژانویه 2016 که تشکیل شد، همه تحقیقات هوش مصنوعی این شرکت را تحت نظارت خود دارد، اما در طول سه سال و نیم تاکنون هیچ نام و نشانی از آن شنیده نشده و شبیه به یک راز باقی مانده است. خیلی ها دوست دارند که بدانند در آن چه می گذرد، درباره چه صحبت می کنند و حتی کسی هم به صورت رسمی با افراد آن دیدار نکرده است. 
واحد اخلاقیات و اجتماعی دیپ مایند با «هیات مستقل بررسی سلامتیهم فرق دارد که این شرکت برای ایجاد بینش اخلاقی در برخی عملیات های خاص در مراقبت های بهداشتی تشکیل داده است. دیپ مایند خدماتی را به برخی از بیمارستان های بریتانیا ارایه می کند که از آن جمله می توان به اپلیکیشن Streams پرداخت. این اپلیکیشن ارتباط مدرن موبایلی با خدمات سلامت همگانی (NHS) و همچنین پروژه های تحقیقاتی مبتنی بر هوش مصنوعی را که با استفاده از یادگیری ماشینی برای کمک به تشخیص بیماری های بینایی و درمان سرطان است، برقرار می کند. هیات بررسی چندین جلسه داشته است و اولین گزارش سالانه خود را در ماه ژوئیه 2017، چند روز پس از همکاری با NHS و Royal Free تهیه کرد و از سوی دفتر کمیسری اطلاعات برای انتقال اطلاعات نامناسب گوشمالی کوچکی شد.
با این حال، ایجاد این واحد جدید، بیانگر تغییر در نگرش دیپ مایند در طول سال گذشته است که این امر نشان می دهد که شرکت چشم انداز قبلی خود را کنار گذاشته و چشم انداز محرمانه جدیدی را اتخاذ کرده است. این شرکت از زمانی که همکاری خود را با «رویال فری» آغاز کرد، با موج تبلیغاتی بدی مواجه شد و همین امر موجب شد که اپلیکیشن Streams را در بیمارستان لندن و بدون دسترسی به عموم مردم و بدون ارایه اطلاعات به مردم درباره داده هایی که در این بیمارستان به اشتراک گذاشته می شد، آزمایش کند. 
این واحد تحقیقاتی همچنین فوریت های بسیاری از متخصصان هوش مصنوعی را برای جلوگیری از نگرانی های روزافزون عموم درباره اینکه چگونه فناوری جدید جهان را در اطراف ما شکل می دهند، بازتاب می دهد. بعضی از رهبران تکنولوژی مانند ایلان ماسک و مارک زوکربرگ بحث درباره اثرات فاجعه آمیز هوش مصنوعی و تسلط آن روی انسان را رهبری کرده اند. متخصصان دیگر بیشتر درباره خطر درازمدت برون سپاری تصمیمات پیچیده و جدی به سیستم هایی که عملکرد آنها هنوز به طور کامل قابل درک نیستند، اظهار نگرانی می کنند. با این حال به نظر می رسد که هم اکنون انسان در معرض پیش داوری ها و تعصبات قبل از ظهور و پیدایش و شکل گیری یک پدیده قرار دارد. 
برخی دانشمندان مثل رایان کالو و کیت کرافورد در نشریه نیچر نوشتند: سیستم های خودکار در حال حاضر در نهادهای مهم اجتماعی ما، از بیمارستان گرفته تا دادگاه ها مستقر شده اند. با این حال، هنوز هیچ روش توافقی ای برای ارزیابی اثرات پایدار کاربرد هوش مصنوعی بر جمعیت انسان وجود ندارد.  این دو دانشمند معتقدند که نیاز به ارزیابی تاثیرات فناوری ها روی تغییرات اجتماع، فرهنگ و سیاسی هم وجود دارد. 
منبع: گاردین


نظر شما



نمایش غیر عمومی
تصویر امنیتی :