با توجه به گفتمان های اخیر در باب هوش مصنوعی پایگاه خبری احوال نیوز دست به ترجمه سری مقالات معتبر علمی در این زمینه زده است مقاله ذیل از این گروه مقالات بوده و ادامه خواهد یافت .
خلاصه
هوش مصنوعی به طور یکپارچه در زندگی روزمره ما ادغام می شود و دانش و توانایی های ما را در رانندگی، اجتناب از ترافیک، یافتن دوستان، انتخاب فیلم عالی و حتی پختن یک غذای سالم تر افزایش می دهد. همچنین تأثیر قابل توجهی بر بسیاری از جنبه های جامعه و صنعت، از اکتشافات علمی، مراقبت های بهداشتی و تشخیص پزشکی گرفته تا شهرهای هوشمند، حمل و نقل و پایداری دارد. در قرن بیست و یکم که «برخورد انسان با ماشین » در حال آشکار شدن است، چندین چالش اجتماعی و حقوقی ظاهر می شود که ما آمادگی کافی برای آنها نداریم. ما در اینجا به بررسی معضلات اجتماعی می پردازیم که در آن منافع فردی با منافع دیگران در تضاد است و هوش مصنوعی ممکن است به ویژه در تصمیم گیری صحیح دچار مشکل شود. یک مثال از آن معضل اجتماعی شناخته شده وسایل نقلیه خودران است. ما همچنین چالشهای حقوقی را با تمرکز بر جرایمی که حداقل تا حدی یا ظاهراً ناشی از هوش مصنوعی است، بررسی میکنیم که منجر به ضرر یا زیان مدعی میشود. در اینجا چالش این است که مشخص شود چه کسی از نظر قانونی مسئول است و تا چه حد. ما با یک چشمانداز و مجموعهای کوتاه از دستورالعملها برای کاهش سازنده چالشهای توصیفشده نتیجهگیری میکنیم.
مقدمه
مجموعه گسترده ای از ادبیات پیش بینی می کند که در سال های آینده اشیاء هوشمند به صورت فزاینده ای ، مشاغلی را که مردم به طور سنتی انجام می دادند، از رانندگی، تشخیص بیماری ها، ارائه خدمات ترجمه، حفاری برای نفت گرفته تا حتی دوشیدن گاو، از دست انسان خارج کنند. (راسل و نورویگ، ۲۰۱۶). در سال ۱۹۹۹، کوین اشتون، رویاپرداز بریتانیایی، اصطلاح «اینترنت اشیا» (IoT) را ابداع کرد تا شبکه ای کلی از چیزهایی را که به هم مرتبط هستند و با یکدیگر در ارتباط هستند، همانطور که کامپیوترهای امروزی در اینترنت انجام می دهند، ابداع کند (Araujo and Spring، ۲۰۱۵؛ Miller, 2015). . اتصال اشیاء به اینترنت دسترسی به داده های حسگر از راه دور و کنترل دنیای فیزیکی از راه دور را ممکن می سازد (کوپتز، ۲۰۱۱، ص ۳۰۱). ابزارهای ارتباطی داده با داده های حسگر که از یک پیوند ارتباطی بی سیم به اینترنت پشتیبانی می کنند، «اشیاء برچسب گذاری شده» را به «اشیاء هوشمند» تغییر می دهند (Weber, 2009, p. 522; Ngai et al., 2008, p. 510; Gubbi et al., 2013، ص ۱۶۴۵؛ Chabanne و همکاران، ۲۰۱۳). با استفاده از اینترنت اشیا، تولیدکنندگان می توانند از راه دور وضعیت تجهیزات را کنترل کنند و به دنبال نشانگرهای خرابی قریب الوقوع خارج از محدوده های عادی (مانند لرزش، دما و فشار) باشند. این بدان معناست که تولید کننده می تواند بازدیدهای کمتری داشته باشد، هزینه ها را کاهش دهد و اختلال کمتر و رضایت بیشتری را برای مشتری ایجاد کند (Wilkinson et al., 2009, p. 539). تشخیص از راه دور، جایی که محصولات پیچیده تولید شده از طریق حسگرها نظارت میشوند، ممکن است تنها برای تعمیر ماشینهای صنعتی مهم نباشد، بلکه برای سلامت انسان، مانند کنترل از راه دور ضربانسازها نیز مهم باشد (Stantchev و همکاران، ۲۰۱۵). استفاده گسترده از WiFi و ۴G امکان برقراری ارتباط با اشیاء هوشمند را بدون نیاز به اتصال فیزیکی مانند کنترل گرمایش منزل و دیگ بخار از طریق موبایل یا لپ تاپ فراهم می کند. اشیاء هوشمند متحرک می توانند در اطراف حرکت کنند و GPS شناسایی مکان آنها را ممکن می سازد (Kopetz, 2011, p. 308). این فناوری توسعه خودروهای به اصطلاح متصل یا خودکار را تسهیل میکند که راننده را قادر میسازد به طور خودکار از تصادفات و سرعت غیرمجاز مطلع شود، همچنین دستورات صوتی، برنامههای پارکینگ، کنترلهای موتور و تشخیص خودرو را امکانپذیر میسازد. پیشبینی میشود که کامیونها به زودی دیگر نیازی به راننده نخواهند داشت، زیرا رایانهها بدون نیاز به استراحت یا خواب آنها را هدایت میکنند. علاوه بر این، امروزه هر تلویزیون فیلیپس یا سامسونگ با برنامهای به نام «تلویزیون هوشمند» عرضه میشود که عملکرد ویدیوی درخواستی، دسترسی به اینترنت و همچنین برنامههای رسانههای اجتماعی را ادغام میکند (Kryvinska et al., 2014). بنابراین، اشیاء به طور فزاینده ای هوشمند و در نتیجه مستقل می شوند.
با این حال، اشیاء خودمختار نیز باعث تصادف، حمله به فضای خصوصی، شکست در جراحی ها و ناتوانی در تشخیص سرطان و حتی درگیر شدن در جنایات جنگی می شوند (یو، ۲۰۱۷، ص ۴۴۳). از آنجایی که اشیاء خودمختار در خیابان ها، آسمان ها، خانه ها و محل کار رایج تر و رایج تر می شوند، جایگاه اجتماعی و قانونی آنها اهمیت بیشتری پیدا می کند. با توجه به اینکه اشیاء مستقل موضوع «اگر» نیستند، بلکه «زمان» هستند که چنین فناوریهایی معرفی میشوند، بعد نظارتی ممکن است در این زمینه تعیینکننده باشد، همانطور که شناسایی قبلی موقعیتهای چالشبرانگیز اجتماعی که نه تنها کاربر، بلکه همچنین دیگران ممکن است تحت تأثیر نامطلوب قرار گیرند. اگر فعالیت اشیاء خودمختار و به طور کلی هوش مصنوعی به درستی تنظیم نشود، به طور گسترده به عنوان جایگزینی کارآمدتر و ایمن برای اشیاء کنترل شده توسط انسان یا تصمیم گیری انسانی پذیرفته نخواهد شد. با این حال، استقلالی که ما به ماشینها میدهیم، ممکن است بسیاری از دکترینهای قانونی را منسوخ کند، و مهمتر از آن، آنچه را که ما بهعنوان فعالیتهای انسانی «معقول» در آینده ارزیابی میکنیم، تحت تأثیر قرار دهد.
بنابراین، کسبوکارهای مدرن و پیشرفتهای فناوری باید با مقررات مناسبی دنبال شوند که خطرات مرتبط را کنترل کند و در نتیجه صنعت را قادر به شکوفایی کند. در عین حال، مقررات باید انعطاف پذیری کافی از خود به جا بگذارند تا قانون توسعه فناوری را محدود نکند. با توجه به اینکه صنعت و مصرف کنندگان به طور فزاینده ای هوشمند می شوند، راه حل های نظارتی هوشمند باید دنبال شود (اوتینگر، ۲۰۱۵)، ایجاد تعادل مناسب بین ایمنی، مسئولیت و رقابت از یک طرف، و نوآوری و انعطاف پذیری از سوی دیگر. در این رابطه، الزامات نظارتی می تواند توسعه فناوری را محدود کند، به ویژه اگر مسئولیت اشتباهات احتمالی سخت باشد یا اگر مالیات نیروی کار را تشویق کند، یا آن را تقویت کند، اگر استاندارد مسئولیت به گونه ای تنظیم شود که ایمنی عملکرد رایانه با ایمنی مقایسه شود. برخی از فعالیت های انسانی، مانند رانندگی.
به ویژه در اتحادیه اروپا، بحث های ظریفی در حال انجام است که چه کسی باید صلاحیت تنظیم قوانین در این زمینه را داشته باشد،. علاوه بر این، مهم است که این فرآیند نظارتی اصول حاکمیت دموکراتیک را نادیده نگیرد و صنعت در فرآیند نظارتی گنجانده شود، و همچنین خود تنظیمی در مواردی جایگزین قوانین شود.
چالش های اجتماعی هوش مصنوعی
مقررات قبلی و هر اقدام قانونی که ممکن است به دنبال داشته باشد، شناسایی موقعیتهایی است که هوش مصنوعی احتمالاً در هنگام تصمیمگیری درست به چالش کشیده میشود. البته برخی موقعیت ها بسیار واضح هستند. یک سیستم توصیه فیلم باید از محدودیتهای والدین تبعیت کند و محتوای دارای رتبه R یا NC-17 را به کودک ارائه ندهد. به همین ترتیب، یک وسیله نقلیه خودران نباید بدون دلیل واضح به دیوار برخورد کند. اما اغلب اوقات موقعیتها بسیار واضح نیستند، به ویژه زمانی که نه تنها کاربر بلکه دیگران نیز درگیر آن هستند.
معضلات اجتماعی موقعیت هایی هستند که در آن بهترین چیز برای یک فرد یکسان نیست یا حتی با آنچه برای دیگران بهترین است در تضاد است. قبلاً در اوایل دهه ۸۰، رابرت اکسلرود (۱۹۸۱، ص ۱۳۹۰) تصمیم گرفت تا تعیین کند که چه زمانی افراد گزینه خودخواهانه را انتخاب می کنند و چه زمانی همکاری را انتخاب می کنند و بنابراین این را در نظر بگیرند که تا چه حد اعمال آنها بر دیگران تأثیر می گذارد. البته، همکاری، پیشنهاد دشواری است، زیرا مستلزم فداکاری شخصی به نفع دیگران است. طبق کتاب بنیادی داروین “منشاء گونه ها” (۱۸۵۹)، انتخاب طبیعی به نفع شایسته ترین و موفق ترین افراد است، و بنابراین به هیچ وجه روشن نیست که چرا هر موجود زنده ای باید یک عمل نوع دوستانه ای انجام دهد که انجام آن پرهزینه ، اما به نفع دیگری است. . در تورنمنت معروف Axelrod، استراتژی به اصطلاح tit-for-tat موفقترین در بازی معمای زندانیان تکراری است. استراتژی بسیار ساده است. ابتدا همکاری کنید، سپس هر کاری که حریف انجام می دهد انجام دهید. اگر حریف در دور قبل همکاری داشت، استراتژی تگفتگو با هم تعاونی است. اگر حریف در راند قبلی فرار کرد، استراتژی گفتگو به تت این است که شکست بخورد. این بسیار شبیه به نوع دوستی متقابل در زیست شناسی است. تحقیقات اخیر همچنین تأثیر سوگیری شناختی و تنبیه را بر همکاری در آزمایشهای معضل اجتماعی مورد بررسی قرار داده است (وانگ و همکاران ۲۰۱۸، لی و همکاران، ۲۰۱۸)، و در واقع تحقیقات نظری فراوانی نیز به کشف آنچه ممکن است همکاری مکرر را ترویج کند اختصاص داده شده است. معضلات اجتماعی به طور کلی (وانگ و همکاران، ۲۰۱۵، پرک و سولنوکی، ۲۰۱۰، پرک و همکاران، ۲۰۱۷، تانیموتو ۲۰۱۸، ایتو و تانیموتو، ۲۰۱۸).
اما در مورد هوش مصنوعی، و به خصوص موقعیتهای یکباره که در آن «ماشین» باید تعیین کند که آیا به نفع مالک (یا کاربر) یا به نفع دیگران عمل کند، چه میتوان گفت. این امر توسط Bonnefon و همکاران به نقطه بسیار خوبی رسید. (۲۰۱۶، ص ۱۵۷۳)، که معضل اجتماعی وسایل نقلیه خودران را مورد مطالعه قرار داد. به ناچار چنین وسایل نقلیه ای گاهی مجبور می شوند بین دو شر یکی را انتخاب کنند، مانند زیر زدن عابران پیاده یا قربانی کردن خود و مسافرشان برای نجات عابران پیاده. سوال کلیدی این است که چگونه الگوریتم را کدگذاری کنیم تا در چنین شرایطی تصمیم “درست” بگیریم؟ و آیا اصلاً تصمیم «درست» وجود دارد؟ تحقیقات نشان داد که شرکت کنندگان در شش مطالعه مسیر مکانیکال آمازون ، وسایل نقلیه خودرانی را تایید کردند که مسافران خود را فدای منافع بزرگتر می کنند و دوست دارند دیگران آنها را بخرند، اما خودشان ترجیح می دهند سوار وسایل نقلیه خودران شوند که به هر قیمتی از مسافرانشان محافظت می کند. به عبارت دیگر، اجازه دهید دیگران همکاری کنند، یعنی خود را فدای منافع دیگران کنند، اما ما ترجیح می دهیم در امان باشیم.
آیا این نتیجۀ وحشیانه ِ صادقانه از یک وضعیت معضل اجتماعی که ما انسانها را درگیر میکند، نیست. ما اجتماعی هستیم و دلسوز هستیم و به یکدیگر اهمیت می دهیم، اما در شرایط نسبتاً شدید داروین هنوز بهترین نظریه را دارد. درک این نکته مهم است که همکاری نتیجه مبارزات تکاملی ما برای بقا است. بهعنوان یک گونه، اگر اجداد ما در حدود میلیونها سال پیش مراقبتهای آلوپرنتال و تأمین کودکان دیگر را شروع نکرده بودند، بعید بود که زنده بمانیم. این احتمالاً انگیزهای برای تکامل تواناییهای قابلتوجه در رابطه با دیگر گونههای همو ( انسان ) بود که امروزه شاهد آن هستیم (بلافر هردی، ۲۰۰۹). امروز، ما هنوز در حال همکاری هستیم، و در مقیاسهای بزرگتر، تا جایی که ممکن است شایسته لقب «فوق مشارکت » باشیم (مارتین و هایفیلد، ۲۰۱۵). با این وجود، جوامع ما همچنان میلیونها نفر هستند که بدون سرپناه، غذا، و بدون برآورده کردن اساسیترین نیازها برای یک زندگی شایسته، در لبه وجود زندگی میکنند (آرتوس برتراند، ۲۰۱۵).
بنابراین چه انتظاری از هوش مصنوعی در زمینه مدیریت چالش های اجتماعی و به ویژه معضلات اجتماعی داریم؟ ما مطمئناً توانایی نوشتن الگوریتم هایی را داریم که همیشه اقدام اجتماعی و مشارکتی را انتخاب کنند. اما چه کسی می خواهد با ماشینی رانندگی کند که ممکن است به طور بالقوه شما را بکشد تا جان دیگران را نجات دهید. با توجه به Bonnefon و همکاران. (۲۰۱۶)، در واقع خیلی از ما موافق نیستیم. از این رو نتیجه گیری آنها، “تنظیم الگوریتم های سودمند ممکن است به طور متناقضی با به تعویق انداختن پذیرش فناوری ایمن تر، تلفات را افزایش دهد”. بنابراین ما دانش و توانایی برنامهریزی ماشینهای بسیار نوع دوستانه را داریم، اما به سادگی بیش توانمندیم .از خود آگاه هستیم، بیش از حد از خودمان محافظت می کنیم، تا مایل به استفاده از چنین ماشین هایی باشیم.
این به نوبه خود توسعه دهندگان و مهندسان را در موقعیت دشواری قرار می دهد. که یا توسعه ماشینهایی است که صرفهجویی میکنند، اما تعداد کمی از آنها متقاضی خریدند، تا ماشینهایی را توسعه دهند که ممکن است بسیاری را بکشند تا یکی را نجات دهند و بعید است این خودرو های هوشمند مانند عسل بفروش برسند. با این وجود، ممکن است وضعیت به همان اندازه سیاه و سفید نباشد، زیرا خود هوش مصنوعی ممکن است یاد بگیرد که چگونه بهترین واکنش را نشان دهد. در واقع، بررسی اخیر پیساخوویچ و لرر (۲۰۱۸) نشان میدهد که به دلیل فراگیر بودن آنها در تعاملات اقتصادی و اجتماعی، ساخت عواملی که بتوانند معضلات اجتماعی را حل کنند از اهمیت بالایی برخوردار است. و یادگیری تقویتی عمیق به عنوان راهی برای قادر ساختن هوش مصنوعی به خوبی در معضلات اجتماعی دوجانبه اطلاعات کامل و ناقص مطرح شده است.
بیش از نیم قرن پیش، ایزاک آسیموف، نویسنده آمریکایی و استاد بیوشیمی در دانشگاه بوستون، سه قانون رباتیک را مطرح کرد. اولاً، یک ربات ممکن است به انسان آسیب نرساند یا با عدم اقدام، اجازه آسیب رساندن به انسان را ندهد. ثانیاً، یک روبات باید از دستورات داده شده توسط انسان اطاعت کند، مگر در مواردی که چنین دستوراتی با قانون اول در تضاد باشد. و سوم، یک روبات باید از وجود خود محافظت کند تا زمانی که چنین حفاظتی با قانون اول یا دوم در تضاد نباشد. بعداً، آسیموف قانون چهارم را اضافه کرد که بیان میکند که یک روبات ممکن است به بشریت آسیب نرساند، یا با انفعال، اجازه دهد که بشریت آسیب ببیند. اما این دوراهیهای اجتماعی یا موقعیتهایی را که ماشین ناگزیر باید بین دو شر انتخاب کند را پوشش نمیدهد. اخیراً ناگلر و همکاران. (۲۰۱۹) گسترش این قوانین را پیشنهاد کرد، دقیقاً برای جهانی که در آن هوش مصنوعی در مورد بسیاری از مسائل از جمله زندگی و مرگ تصمیم می گیرد، بنابراین به ناچار با معضلات اخلاقی روبرو می شود. به طور خلاصه، از آنجایی که همه انسان ها باید به طور یکسان مورد قضاوت قرار گیرند، هنگامی که یک معضل اخلاقی حل می شود، اجازه دهید شانس تصمیم بگیرد. به عنوان مثال، هنگامی که یک خودروی خودران باید تصمیم بگیرد که آیا مسافر را به دیوار بکشد یا عابر پیاده را زیر پا بگذارد، باید یک سکه پرتاب کرد و مطابق با آن عمل کرد. سر آن دیوار است، یا دم آن عابر پیاده است. هنوز هیچ مطالعه ای در مورد اینکه خریداران بالقوه چنین خودرویی با دانستن اینکه چنین الگوریتمی در خودرو تعبیه شده است، چه نتیجه ای می گیرند، انجام نشده است، اما به جرات می توان گفت که هرچند منصفانه باشد، بسیاری آن را غیرقابل قبول می دانند.
در نهایت، مشکلاتی که زمانی به وجود میآیند که طراح یک ماشین، آن را به سمت هدفی هدایت میکند، بدون اینکه فکر کند که آیا ارزشهای آن کاملاً با ارزشهای بشری همسو هستند، یا زمانی که ماشین مطابق با استانداردهای « (فوق مشارکت )SuperCooperator» طراحی شده است و به جای اینکه به دیگران آسیب برساند، به کاربر آسیب میرساند. نیاز به مقررات خوب و یک سیستم قضایی آماده برای مقابله با چالش ها دارد. با این حال، این ما را به مجموعه جدیدی از چالشها سوق میدهد، یعنی چالشهایی که صرفاً فقهی هستند.
https://www.nature.com/articles/s41599-019-0278-x
مترجم مهدی امیدوار
انتهای پیام/*