دوشنبه, 17 تیر 1398 ساعت 04:18

جایگاه اخلاق در هوش مصنوعی

نوشته شده توسط
این مورد را ارزیابی کنید
(1 رای)
جایگاه اخلاق در هوش مصنوعی جایگاه اخلاق در هوش مصنوعی

فناوری اطلاعات دیجیتال دسترسی همه‌گیر به اطلاعات را در هر زمان و هر نقطه‌ای آسان کرده است. این روند تأثیر چشمگیری بر شکل‌گیری تمام ابعاد جامعه از تولید تا توزیع صنعتی تا مصرف کالاها و خدمات گذاشته است. تأثیر فناوری اطلاعات دیجیتال مانند تحولات فناوری در گذشته بسیار فراگیر است؛ به‌ طوری‌ که انسان نه‌تنها خود را با آن تطبیق می‌دهد؛ بلکه رفتار خود را هم منطبق با آن تغییر می‌دهد.

امروزه، فناوری اطلاعات دیجیتال نحوه‌ی تعامل افراد با یکدیگر در جامعه و حتی شراکت با دیگران را هم تعریف می‌کند. روابط بازتعریف بین مصرف‌کنندگان و تولیدکنندگان و تأمین‌کنندگان؛ و صنایع و نیروهای کار؛ و ارائه‌دهندگان خدمات و مشتریان؛ و دوستان و شرکا به تغییرات چشمگیری در جوامع منجر شده است که می‌تواند هشداری برای نتیجه‌گیری‌های اخلاقی باشد. خیلی زود انسان امروزی با موج بعدی تحولات فناوری روبه‌رو خواهد شد: هوش مصنوعی. انقلاب دیجیتال اواخر قرن بیستم دسترسی به اطلاعات را بسیار ساده کرده است و امکان تصمیم‌گیری سریع را فراهم می‌کند؛ به‌ طوری‌ که برای مثال، سازمان‌ها صرفا به اتخاذ تصمیم‌های بنیادی اکتفا می‌کنند و سایر تصمیم‌ها را واگذار می‌کنند.

جایگاه اخلاق در هوش مصنوعی
جایگاه اخلاق در هوش مصنوعی

هوش مصنوعی در حال تغییر است و با خودکارسازی فرایند تصمیم‌گیری، نویدبخش نتایج باکیفیت‌تر و بهبود بازدهی است. موفقیت‌های سیستم‌های بازی هوش مصنوعی در شکست قهرمان شطرنج گری کاسپاروف و قهرمان Go، کی جای، ابعاد کیفی هوش مصنوعی و برتری آن بر انسان در محاسباتی مثل تأثیر تصمیم‌گیری لحظه‌ای بر حرکت‌های احتمالی آینده را ثابت می‌کنند. متأسفانه هوش مصنوعی در فرایند تصمیم‌گیری، شفافیت، قابلیت توصیف، قابلیت پیش‌گویی، قابلیت آموزش، قابلیت محاسبه‌ی حرکت انسانی را حذف کرده و ابهام را جایگزین آن‌ها می‌کند. منطق حرکت نه‌تنها برای بازیکنان، بلکه برای خالق برنامه هم مجهول است. در چنین شرایطی، وقتی هوش مصنوعی شروع به تصمیم‌گیری می‌کند، دیگر اثری از شفافیت و قابلیت پیش‌گویی دیده نمی‌شود.

جایگاه اخلاق در هوش مصنوعی
جایگاه اخلاق در هوش مصنوعی

انسان‌ها نمی‌توانند با دقت زیاد تجربیات خود را در بازه‌ی زمانی طولانی‌مدت جست‌وجو کنند؛ در حالی‌ که این کار برای ماشین بسیار ساده است. انسان‌ها معمولا معیارهایی را حذف می‌کنند که به نظر غیرمرتبط یا غیرمنطقی می‌رسند؛ در حالی‌ که ماشین معمولا چیزی را حذف نمی‌کند. درنتیجه، ماشین ممکن است تصمیم‌های غیرمرتبط باسابقه را اتخاذ کند که در مقیاس درک‌پذیر انسان قرار ندارد. با حرکت سریع کسب‌وکارها و جوامع به‌سمت هوش مصنوعی و بهبود تصمیم‌گیری در افق زمانی طولانی‌تر، انسان به‌ دلیل چشم‌انداز محدود عقب‌نشینی می‌کند و ناامید می‌شود و تنها ارزش برای عملکرد صحیح جامعه، یعنی اعتماد، هم به‌ مرور کاهش پیدا می‌کند.

برای درک میزان ساختگی‌بودن تصمیم‌های هوش مصنوعی، باید روش تصمیم‌گیری انسان را بررسی کرد. انسان‌ها معمولا براساس مجموعه‌ای از قوانین آشکار یا روابط مبتنی بر پیامدگرایی و ترکیب تصمیم می‌گیرند. انسان‌ها در برابر اطلاعات مرتبط برای تصمیم‌گیری گزینشی عمل می‌کنند؛ اما ماشین‌ها به‌صورت غیرگزینشی عمل می‌کنند و حتی معیارهایی را در نظر می‌گیرند که در روند تصمیم‌گیری برای انسان اهمیتی ندارند. مثال‌های بی‌شماری از این نمونه وجود دارد که می‌توان به غیرفعال‌سازی ربات چت مایکروسافت پس از ارسال متن‌های ضدیهودی در توییتر یا بررسی دانشگاه بوتسون اشاره کرد که رابطه‌ی جنسیتی کلماتی مثل Boss و Architect و Financier با مردان و رابطه‌ی جنسیتی کلماتی مثل Nurse و Receptionist با زنان را آشکار کرد. این خروجی‌ها را احتمالا داده‌ها تولید می‌کنند؛ اما در تضاد با ارزش‌های آشکار انسانی هستند. اگر فرایندهای داده‌محور به خروجی الگوریتم‌های هوش مصنوعی وابسته باشند، تصمیم‌های انحرافی را به بار خواهند آورد که اغلب اوقات در تضاد با ارزش‌های اخلاقی هستند.

نفوذناپذیری هوش مصنوعی مانع از تصمیم‌گیری صحیح می‌شود

در سال ۲۰۱۶، ProPublica شواهد چشمگیری از این‌ دست را ارائه داد. برای مثال، دادگاه‌های ایالات‌ متحده از برنامه‌ای کامپیوتری استفاده کرده بودند که به‌اشتباه متهمان سیاه‌پوست را که در بازه‌‌ای دوساله مرتکب جرمی نشده بودند، به‌عنوان مجرم با نرخ دوبرابر متهمان سیاه‌پوست بار دیگر پرچم‌گذاری کرده بود (۴۵ در مقایسه با ۲۳ درصد). این در حالی است که اگر انسانی این کار را انجام می‌داد، لقب نژادپرست به او داده می‌شد.

هوش مصنوعی می‌تواند بین تجربیات جمعی و ارزش‌های آشکار جدایی بیندازد. تجربه‌های جمعی ایستا نیستند؛ بلکه براساس تصمیم‌های مهم اجتماعی شکل می‌گیرند. تصمیم‌های اجتماعی هم براساس ارزش‌های اخلاقی اتخاذ می‌شوند؛ بنابراین، آیا فرایند تصمیم‌گیری به ماشینی واگذار می‌شود که صرفا درباره‌ی گذشته به یادگیری می‌پردازد نه آینده؟ با توجه به مقیاس کاربردهای هوش مصنوعی در زمینه‌هایی مثل تشخیص پزشکی، خدمات مالی و نظارت بر کارمند، حتی تغییرات کوچک هم پیامدهای شدید خواهند داشت. از آنجا که روزبه‌روز عملکرد الگوریتم‌ها در زمینه‌ی پیش‌گویی بهبود پیدا می‌کند، منطق ناظر بر چنین تصمیم‌هایی هم نفوذ‌ناپذیر خواهند شد.

بر همین اساس، انسان دیدگاه جامع تصمیم‌گیری را از دست می‌دهد و تمام اصول گذشته را کنار می‌گذارد. در بعضی نمونه‌ها، این مسئله می‌تواند غیراخلاقی و غیرقانونی و حتی کوته‌بینانه باشد. برای مثال، الگوریتم تکرار جرم اصولی مثل سابقه‌ی بی‌گناهی و برابری فرصت‌ها را نادیده گرفته است. سازگاری یکی از پیش‌نیازهای لازم اخلاق و یکپارچه‌سازی است. تصمیم‌ها باید به استاندارد‌هایی بیشتر از دقت آماری وابسته باشند. قرن‌ها است که فضیلت‌های مشترکی مثل اعتماد متقابل، کاهش آسیب، برابری و عدالت خود را به‌عنوان شاخص‌های بقای هرگونه‌ سیستم استنتاجی ثابت کرده‌اند.

بدون سازگاری منطقی، سیستم‌های هوش مصنوعی از ثبات و پاسخ‌گویی محروم می‌شوند. ثبات و پاسخ‌گویی دو عامل اساسی برای اعتمادسازی در طبیعت به شمار می‌روند. نفوذناپذیری تصمیم‌های داده‌محور با ایجاد شکاف بین تمایل‌های اخلاقی و استدلال‌های منطقی، مانع از دخالت در فرایندهای تصمیم‌گیری می‌شود. دنیای جدید انسان این‌گونه است؛ جایی که تصمیم‌های پیچیده به انتخاب‌های انعکاسی تقلیل می‌یابند و براساس خروجی‌های نظارت‌شده اعمال می‌شوند؛ جایی که پیچیدگی به‌سادگی تبدیل می‌شود و فناپذیری به کاربردپذیری. امروزه، ادراک انسان از اخلاق به‌ منزله‌ی چارچوبی برای تصمیم‌گیری در نظر گرفته می‌شود. مدت زیادی نیست که تصمیم‌گیری‌های انسان، سایه‌ی شک را بر اخلاق انداخته است.

منبع: Zoomit

خواندن 125 دفعه

نظرات (0)

نظر ارسال شده‌ی جدیدی وجود ندارد

دیدگاه خود را بیان کنید

  1. ارسال دیدگاه بعنوان یک مهمان -
پیوست ها (0 / 3)
اشتراک‌گذاری موقعیت مکانی شما
/**/