چهار اولویت اخلاقی در رابطه با فناوریهای عصبی و هوش مصنوعی
این سناریو را در نظر بگیرید. یک فرد معلول در یک دوره آزمایش بالینی مربوط به رابط مغز ـ کامپیوتر شرکت میکند. کامپیوتر به تراشهای که در مغز وی قرار دارد متصل بوده و بهگونهای آموزش میبیند که بتواند تمام فعالیتهای عصبی را تفسیر کند. کامپیوتر فرمانهایی را برای حرکت بازوی روباتیک صادر میکند. فرد شرکتکننده ممکن است بعد از مدتی خسته و کلافه شود. بعد از آن، دست روباتیک وی فنجانی را که یکی از اعضای تیم تحقیق به او داده میشکند و به آن شخص آسیب میرساند. ممکن است این اتفاق ناشی از یک ایراد فنی در سیستم کار دستگاه باشد، اما آن شخص با خود فکر میکند که شاید عصبانیت وی در این حادثه نقش داشته است. این سناریو کاملاً فرضی است، اما بیانکننده برخی چالشهایی است که ممکن است جامعه ما در آینده با آن روبهرو شود.
در حال حاضر، فناوری BCI بیشتر روی نتایج درمانی مانند کمک به بیمارانی که از آسیبهای نخاعی رنج میبرند توجه دارد. ممکن است چندین سال طول بکشد تا BCI و سایر فناوریهای عصبی به بخشی از زندگی عادی و روزمره انسانها تبدیل شوند. اما پیشرفتهایی که در این حوزهها صورت میگیرد، نشاندهنده آن است که در مسیر درست قرار داریم.
برخی از این پیشرفتها میتوانند انقلاب بزرگی در نحوه درمان بیماریها از آسیبهای مغزی و فلج شدن گرفته تا صرع و اسکیزوفرنی ایجاد کنند. اما این فناوریها میتوانند باعث تشدید اوضاع نابسامان نابرابریهای اجتماعی شوند و فرصتهای خوبی را در اختیار شرکتهای بزرگ، هکرها و به طور کل افرادی قرار دهند که قصد آسیب رساندن به دیگران را دارند. حال زمان آن است که تمام این جوانب به دقت مورد بررسی قرار گیرند.
به همین دلیل، پژوهشگران چهار ناحیهای که بیشترین نگرانی درخصوص آنها وجود دارد را به دقت مورد بررسی قرار دادهاند. حریم شخصی و رضایتمندی، هویت، تقویتکنندهها و تعصبات چهار بخشی هستند که پژوهشگران درخصوص ورود بدون برنامه و بدون نظارت به این بخشها هشدار دادهاند. ملتها و انسانهایی که دارای مذاهب، اصول اخلاقی و پیشزمینههای اجتماعی ـ اقتصادی مختلف هستند، نیازها و دیدگاههای متفاوتی از یکدیگر دارند.
سرمایهگذاریهای هوشمند
بسیاری از ثروتمندترین سرمایهگذاران دنیا بر روی تعامل بین علوم اعصاب و AI برنامهریزی ویژهای کردهاند. بسیاری از شرکتها مانند کرنل و استارتآپ ایلان ماسک بهنام Neuralink در حال کار روی طراحی و ساخت دستگاههایی هستند که قادر به «خواندن» فعالیتهای مغزی انسان و نوشتن اطلاعات عصبی در داخل مغز هستند. بر اساس آخرین تخمینها، میزان سرمایهگذاری روی فناوریهای عصبی حدود 100 میلیون دلار در سال برآورد شده و این رقم با سرعت زیادی رو به رشد است.
سرمایهگذاران بخشهای دیگر نیز به این صنعت روی آوردهاند. از سال 2013 به بعد در امریکا، بیشتر از 500 میلیون دلار سرمایه دولتی صرف توسعه فناوری عصبی تحت برنامه US BRAIN شده است.
درست است که امروزه قابلیتهای چشمگیر و قدرتمندی در اختیار داریم، اما باز هم آزمایشهای زیادی در دانشگاهها و آزمایشگاههای امریکا در حال انجام است. به عنوان مثال، محققان دانشگاه دوک واقع در دورهام کارولینای شمالی نشان دادند سه میمونی که الکترودهایی درون مغز آنها کاشته شده بود، موفق شدند در قالب یک شبکه مغزی یک آواتار را به حرکت درآورند. از طرف دیگر، گوگل، آیبیام، مایکروسافت، فیسبوک، اپل و بسیاری از استارتآپهای فعال در این شاخه مشغول ساخت پیشرفتهترین شبکههای عصبی مصنوعی هستند که قادر به پیشی گرفتن از انسانها در انجام وظایف محوله هستند.
چهار نگرانی عمده
فناوریهای عصبی برای موفقیت در بازار مصرفی به دستگاههایی نیاز دارند که حالت تهاجمی نداشته باشند، کمترین خطر را داشته باشند و هزینه بهکارگیری آنها نسبت به فرآیندهای کنونی جراحی مغز و اعصاب بسیار پایین باشد. شرکتهایی که در حال توسعه دستگاههای خود هستند، باید در قبال محصولاتشان مسئولپذیر باشند و از استانداردهایی مشخص، بهترین آزمایشها و قوانین متعارف اخلاقی پیروی کنند. اما چهار نگرانی عمدهای که در این زمینه وجود دارد و متخصصان این حوزه را کاملاً برآشفته است چه عواملی هستند؟ با اینکه بحث اصلی در این مقاله در ارتباط با فناوریهای عصبی است، اما میتوان همین دغدغهها را در ارتباط با هوش مصنوعی نیز داشت.
1-حریم شخصی و رضایتمندی
ما امروزه این توانایی را در اختیار داریم تا طیف بسیار گستردهای از اطلاعات را تنها از طریق ردپای دیجیتالی برجای مانده از کاربران جمعآوری کنیم. محققان MIT در سال 2015 کشف کردند یک تحلیل دقیق و عالی از رفتار افراد که از طریق الگوهای تایپ روی کیبورد دستگاههایشان مشخص میشود، میتواند به تشخیص زودهنگام بیماری پارکینسون منجر شود. بر اساس مطالعهای که در سال 2017 انجام شد، بررسی الگوهای حرکتی میتواند راه را برای تشخیص زودهنگام اختلالات شناختی ناشی از بیماری آلزایمر هموار سازد.
الگوریتمهایی که برای تبلیغات هدفمند، محاسبه حق بیمه یا یافتن شرکای احتمالی مورد استفاده قرار میگیرند، اگر با اطلاعاتی تغذیه شوند که از الگوهای عصبی افراد جمعآوری شدهاند، قدرت بسیار بیشتری خواهند داشت. البته موضوعی که در این زمینه باید بهوضوح روشن شود این است که به انسانها این حق انتخاب داده شود تا اجازه دهند دادههای عصبی درباره خودشان و فعالیتهایی که انجام میدهند از سوی سازمانها جمعآوری شود. با وجود این، تجربه نشان داده است که انسانها آمادگی سریعی دارند تا دادههای مربوط به حریم شخصی خود را در اختیار سرویسهای تجاری همچون شبکههای اجتماعی، تفریحی و سرگرمی قرار دهند. در کنار این روش یعنی بهاشتراکگذاری از روی میل دادهها، حجم عظیمی از دادهها نیز از طریق جستوجوهای اینترنتی و همچنین نظارت بر دستگاههای پوشیدنی که در زمینه تناسب اندام و مواردی از این دست به کار گرفته میشوند به دست میآید. این تکنیکها بیشتر زمانهایی مورد استفاده قرار میگیرد که افراد حاضر نیستند اطلاعاتی در ارتباط با خود را با دیگران به اشتراک قرار دهند. به همین دلیل است که پژوهشگران پیشنهاد دادهاند در زمینه فروش، انتقال تجاری و استفاده از دادهها بهویژه دادههای عصبی قوانین سختی وضع شود.
یکی دیگر از کارهایی که میتوان انجام داد محدود کردن پردازشهای متمرکز روی دادههای عصبی است. استفاده از فناوریهایی که به طور ویژه برای محافظت از دادههای کاربران طراحی شدهاند میتواند به این مسئله کمک کند. درنهایت اگر از کدهای متن باز و همچنین فرمت دادهای باز در تعامل با سامانههای نظارت عصبی استفاده میکنیم، شفافیت بیش از پیش افزایش پیدا میکند. به طوری که همه خواهیم دانست چه اطلاعاتی بهشکل خصوصی حفظ شدهاند و چه اطلاعاتی انتقال پیدا کردهاند.
2-هویت و قدرت انتخاب اعمال
گزارشهای دریافتی از برخی از کسانی که تحریکات عمیق مغز از طریق الکترودهای کاشته شده در مغزشان را تجربه کردهاند، بیانکننده یک نکته قابل تأمل است: آنها احساس میکنند هویت دیگری پیدا کردهاند. به عنوان مثال، در سال 2016 شخصی که حدود هفت سال بود برای درمان افسردگی خود از تحریک کننده های مغز استفاده میکرد، گزارش داد که بهتازگی در نوع تعامل خود با دیگران دچار شک و تردید شده است با رشد و توسعه فناوریهای عصبی دولتها و سایرین باید به حقوق کسانی که تواناییهای جدید به دست آوردهاند، هویت فردی آنها تغییر پیدا کرده یا قدرت تازهای به دست آوردهاند احترام بگذارند. به همین منظور، پیشنهاد میشود تبصرههای جدیدی به قوانین بینالمللی افزوده شود.
3-تقویتکنندههای مغزی
اگر جسم یا مغز کسی کاملا متفاوت با آحاد جامعه باشد، دیگران با تبعیض با وی برخورد میکنند. فشارهای ناشی از بهکارگیری فناوریهای عصبی پیشرفته مانند تغییر استانداردهای متعارف جامعه است. با وجود این، تصور بازوهای اضافه شده تا حدی سادهتر است.
طی سالهای اخیر، اخبار زیادی درخصوص پروژههای بزرگی شنیدهایم که عمدتا پیرامون سربازانی است که روی آنها آزمایشهایی انجام شده است تا تواناییهای ذهنی آنها بهبود پیدا کند. هدف از اجرای این برنامهها رمزگشایی بهتر جریانهای دادهای مغزی است.
در برخی از فرهنگها، حریم شخصی افراد از ارزش بیشتری برخوردار است. به همین دلیل، تصمیماتی که از سوی قانونگذاران وضع میشود، بهتر است متناسب با هر فرهنگ باشد و در کنار آن، به حقوق عمومی و جهانی احترام گذاشته شود. از طرف دیگر، منع کامل برخی از فناوریهای مشخص میتواند باعث زیرزمینی شدن آنها شود؛ به همین دلیل، تلاش برای وضع قوانین ویژه باید شامل گفتمانهای دقیق و همچنین مناظرههای آزاد باشد.
پیشنهاد میشود برای استفاده از فناوریهای عصبی جهت اهداف نظامی قوانین سفت و سختی وضع شود. بهترین نهادی که در این زمینه میتواند بر روند اوضاع نظارت داشته باشد، سازمان ملل یا نهادی است که به این سازمان وابسته باشد. شاید این تلاشها به حل تمام مشکلات موجود منجر نشود، اما میتواند بهترین مدل ممکن برای نظارت بر دادههای عصبی باشد که قرار است از آحاد جامعه به دست آید.
4-تعصبات
وقتی تصمیمات علمی یا فناورانه بر پایه مفاهیم و هنجارهای اجتماعی و ساختاری باشد، فناوری حاصل از آن میتواند برای گروههای خاصی مفید باشد، اما در مقابل به دیگران آسیب وارد کند. طبق تحقیقات انجام شده در سال 2015، نمایش فرصتهای شغلی موجود در الگوریتمهای تبلیغاتی گوگل برای کاربران زن خیلی کمتر از کاربران مرد بوده است. به طور مشابه، تحقیق ProPublica آشکار کرد الگوریتمهایی که بهشکل آزمایشی از سوی نهادهای قانونگذار در امریکا به کار گرفته شد، به طور غلط پیشبینی کرد ضریب ارتکاب جرم از سوی سیاهپوستان در مقابل سفیدپوستان بیشتر است. چنین تعصباتی میتواند در داخل دستگاههای عصبی نهادینه شود. در واقع، محققان دریافتهاند تعریف عدالت به روشهای خیلی دقیق ریاضی در این گونه موارد کار فوقالعاده سختی است. بهترین مکانی که میتواند با چنین تعصباتی به دور از منطق مقابله کند و مانع از آن شود تا این تعصبات به دنیای فناوری وارد شود، صنعت و دانشگاه است. وجود مناظرات و جلسات بحث عمومی برای شکل دادن تعاریف در تعصبات مشکلدار امری کاملا ضروری و واجب است.
یکی از پیشنهاداتی که در این زمینه و بهمنظور مقابله با این معضل مطرح شده نظارت هرچه دقیقتر بر الگوریتمهای یادگیری ماشینی است. این نظارت باید از همان آغاز کار بهشکل جدی به مرحله اجرا درآید و هرگونه دادهای که قرار است بهعنوان ورودی در اختیار الگوریتمها قرار گیرد را به دقت مورد بررسی قرار دهد. این کار مانع از آن میشود تا از همان آغاز به کار فرآیند توسعه تعصبات کورکورانه به دنیای فناوری وارد شود. بیتوجهی به این موضوع باعث بروز مشکلاتی جدی میشود. شبیه به مشکلی که چند وقت پیش گریبانگیر چتبات هوشمند مایکروسافت شد.
مهندسی عصبی مسئولیتپذیر
تمام پیشنهاداتی که در بالا عنوان شد، در واقع تلاش برای فراخوانی صنعت و محققان دانشگاهها جهت قبول مسئولیت ساخت دستگاههایی است که از همان ابتدا باید تغییرات لازم در آنها به مرحله اجرا درآید. آنها برای به سرانجام رساندن این مسئولیت مهم میتوانند بر مبنای چهارچوبها و خط مشیهایی عمل کنند که پیش از این در ارتباط با ثبت ایدههای نوآورانه چالشبرانگیز از آنها استفاده شده است. شاید نخستین قدم برای رسیدن به این هدف آن است که مهندسان، توسعهدهندگان فناوری و همچنین کارآموزان پروژههای دانشگاهی را با اصول اخلاقی آشنا کنیم تا از آن بهعنوان بخشی از استاندارد آموزش جهت پیوستن به یک شرکت یا آزمایشگاه استفاده کنند. میتوان به کارمندان و اعضای تیم یاد داد تا درباره پیشرفتها و بهکارگیری استراتژیهایی که به طور سازنده در یک جامعه نقش کلیدی بازی میکنند، تفکر بیشتر و عمیقتری داشته باشند. این روش میتواند مانند همان چیزی باشد که در پزشکی استفاده میشود. به دانشجویان پزشکی درخصوص محروم بودن بیمار و اطلاعات وی آموزش داده میشود تا وظایف خود را بهشکلی انجام دهند که به دیگران آسیبی وارد نکنند. مزایای اجتماعی فناوریهای عصبی بسیار گسترده است. برای بهرهگیری از این مزایا باید آنها را بهشکلی توسعه دهیم که به بشریت احترام بگذارند، از آن مراقبت کنند و باعث افزایش بهرهوری انسانها شوند.