واکاوی سند اخلاق هوش مصنوعی یونسکو از منظر مبانی فلسفة اخلاق آیتالله مصباح یزدی
/ دکترای حکمت متعالیه مؤسسة آموزشی و پژوهشی امام خمینی (ره) / h.mohseni1297@mailfa.comArticle data in English (انگلیسی)
- Anderson, M. & Anderson, S. L. (2007). Machine Ethics: Creating an Ethical Intelligent Agent. AI Magazine. 28(4),15-26.
- Boddington P. (2017). Towards a Code of Ethics for Artificial Intelligence. New York: Springer International Publishing.
- Dafoe, A. (2018). AI Governance: A research agenda, Oxford: Oxford university press.
- Jonas, T. & et al, (2023). The Global Governance of Artificial Intelligence: Next Steps for Empirical and Normative Research. Retrieved from https://arxiv.org/ftp/arxiv/papers.
- Lucci, S. & Kopec, D. (2016). Artificial intelligence in the 21st century: A living introduction, mercury learning and information. ISBN-13: 978-1942270003, ISBN-10: 1942270003.
- Russell, S. & Norvig, P. (2020). Artificial Intelligence: A Modern Approach. 4th Ed. USA: Prentice Hall.
- UNESCO (2021). Recommendation on the ethics of artificial intelligence.. Retrieved from URL: https://en.unesco.org/artificial-intelligence/ethics.
- Weiyu W. & Keng S. (2018). Artifcial Intelligence: A Study on Governance, Policies, and Regulations, MWAIS 2018 Proceedings.40. Retrieved from htp://aisel.aisnet.org/mwais2018/40.
- https://hai.stanford.edu.
- https://oecd.ai/en/wonk.
- https://unesdoc.unesco.org.
- https://www.techtarget.com.
- https://futureoflife.org/resource/ai-policy.
مقدمه
بسياري معتقدند: در آيندة نهچندان دور، ظهور «ابر هوش» (Superintelligence) امري اجتنابناپذير است، هرچند در زمان پيدايش اين رخداد اختلاف نظر است (بادينگتون، 2017، ص2-3). ولي اين پديده ميتواند مخاطرات بسياري جدي براي بشريت داشته باشد. ازاينرو لازم است دانشمندان ملاحظاتي را براي خطرات احتمالي آينده از ناحية سامانههاي پيشرفتة هوش مصنوعي در نظر بگيرند. افزون بر اين، همين هوش مصنوعي محدود («NAI» Narrow Artificial Intelligence) نيز ميتواند در زندگي بسياري از انسانها تأثيرگذار باشد (راسل و نورويگ، 2020).
اين فناوريها در کنار مزاياي متعدد، خطرات و چالشهايي را نيز ايجاد ميکنند. بخشي از اين خطرات و چالشها ممکن است ناشي از استفادة بدخواهانه از فناوري باشد؛ بخش مهم ديگري از تهديدات نيز ممکن است از ناحية خود فناوري هوش مصنوعي باشد. در مقالة پيش رو، اين نگرانيها، چالشها و تهديدها بيشتر تبيين ميشود.
ازاينرو «يونسکو» چارچوبهاي نظارت بينالمللي و ملي را فراهم آورده است تا اين فناوري در نهايت، به نفع بشريت تمام شود. به همين خاطر سندي را با عنوان «توصيهنامة اخلاق هوش مصنوعي» (Recommendation on the ethics of artificial intelligence) در چهل و يکمين جلسة گردهمايي عمومي خود (در تاريخ 24 نوامبر 2021) تصويب کرده است (يونسكو، 2021).
اين توصيهنامه يک مقدمه و 141 بند دارد و در آن برخي اهداف و ارزشهاي اخلاقي بيان شده است. از کشورهاي عضو ـ ازجمله ايران ـ نيز خواسته شده است مفاد اين سند را در کشورهاي خود اجرا کنند. به اين مطلب در بند 135 اشاره شده است. هرچند مفاد برخي بندها اشاره دارد به اينکه در اجراي اين قوانين، قوانين داخلي کشورها نيز ملاحظه ميگردد، اما نهادهاي بينالمللي مستقيم يا غيرمستقيم ميکوشند با تصويب اينگونه اسناد بالادستي، قوانين و ارزشهاي جوامع را با خود همراه سازند. همانگونه که پيش از متن نهايي در گزارشي آمده ـ ولي در متن اصلي به آن تصريح نشده است ـ يونسکو سعي دارد رهبري اخلاقي خود را با تنظيم استانداردهايي در حوزة علم و فناوري و هوش مصنوعي با رويکردي انسانمحوري تقويت کند.
(https://unesdoc.unesco.org/ark:/48223/pf0000379920.41C/73-p.2)
همچنين در بند 4 سند آمده است: اين توصيهنامه دولتهاي عضو را بهعنوان کاربران هوش مصنوعي براي توسعة چارچوبهاي قانوني و نظارتي در کل چرخة هوش مصنوعي مخاطب قرار داده، به آنها رهنمود اخلاقي ميدهد.
بدينروي ضروري است مباني و ارزشهاي اخلاقي اين سند بينالمللي از منظر مباني ارزشهاي اخلاقي مکتب اسلام بررسي گردد.
در اين زمينه تحقيقاتي انجام شده است. پيشينهاي که بهصورت رسمي و مدون يافت شد، گزارش مختصري است با عنوان «نقد و بررسي اولين پيشنويس توصيهنامة اخلاق هوش مصنوعي (يونسکو)» که توسط بهزاد خداقليزاده و تحتنظر محمدمهدي نصر هرندي (مدير گروه مطالعات اخلاقي) در «پژوهشگاه مرکز ملي فضاي مجازي» چاپ شده است. در اين اثر برخي نقدهاي جزئي به تکتک بندها و نيز نقدهاي کلي به اصل سند مطرح شده است. اما در آن به مباني اخلاقي اين سند و سازگاري آن با نظرية اخلاقي اسلام اشاره نشده است. در اين گزارش به توصيهنامة يونسکو ايراد گرفتهشده که چرا در سراسر متن، به ارزشها و اصول، روشنتر و جزئيتر پرداخته نشده است. ازاينرو پيشنهاد داده است بند 91 بهعنوان الگويي براي نگارش ساير بندها باشد (خداقليزاده و ديگران، 1399، ص15). اما درواقع محتواي اين بند با توجه به مفاد ساير بندها در جهت ترويج فرهنگ «برابري جنسيتي» است.
در مقالة مزبور، حتي اين پيشنهاد مطرح شده است که در اين سند، تکثر ارزشي و فرهنگي گنجانده شود (خداقليزاده و ديگران، 1399، ص18). اگر منظور از پيشنهاد مزبور اين است که «يونسکو» به ارزشهاي فرهنگ اسلام نيز بها بدهد، اين نکته قابل پذيرش است. اما به نظر ميرسد با اين پيشنهاد بهنوعي تکثر ارزشي در حوزة اخلاق پذيرفته شده است. پذيرش اين مطلب نيز منجر به نسبيگرايي و کثرتگرايي در ارزشهاي اخلاقي ميشود. ازاينرو لازمة اين امر عدم امکان ارزيابي و داوري بين مکاتب مختلف اخلاقي است و همة آنها به يک اندازه معتبر خواهند بود. بنابراين مکتب اخلاقي اسلام بر ساير نظامهاي اخلاقي برتري نخواهد داشت. نهايت امر آن است که نظام اخلاقي اسلام نظامي اخلاقي خواهد بود در عرض ساير نظامهاي اخلاقي. اما آيا بنا بر نگرش دين اسلام و انديشمندان مسلمان، حقيقت اينگونه است؟
در اثر ديگري (متشکل از مجموعه مقالاتي که بهزودي بهطور رسمي منتشر خواهد شد) به تفصيل و مستقل اين سند تحت نظر «دفتر فقه معاصر حوزة علمية قم» مطالعه و نقد شده است (جمعي از نويسندگان، 1402).
اما با بررسي اجمالي آن پژوهشها مشخص شد بيشتر تحقيقات مزبور با رويکرد فلسفة اخلاق و مقايسة آنها با نظرية اخلاقي مکتب اسلام به نقد مباني اخلاقي سند مزبور نپرداختهاند. البته در يکي از اين مقالهها، نگارنده کوشيده است با رويکرد کلي و بنا بر آموزههاي اخلاقي مکتب اسلام اين سند را نقد کند (محسني و ديگران، 1402). بيشتر تمرکز پژوهش مذکور در باب واقعگرايي و غيرواقعگرا بودن ارزشهاي سند بوده و به لوازم آنها نيز اشاره شده است. از يافتههاي تحقيق مزبور در پژوهش حاضر استفاده شده است. ولي بيشترين مطالب مقالة حاضر بر تفکيک بين مکتب اخلاقي وظيفهگرا، فضيلتمحور و کمالگرايانه با تأکيد بر انديشة آيتالله مصباح يزدي است.
همچنين نگارنده مقاله مختصري دربارة سازگاري يا ناسازگاري مباني اخلاقي اين سند با نظرية اخلاقي اسلام در همايش علمي ـ پژوهشي «نخستين کنفرانس فضاي سايبر» که توسط دانشکدة مهندسي دانشکدگان فارابي دانشگاه تهران در آبان سال 1401 برگزار شد، ارائه کرده است (محسني، و فولادي قلعه، 1401). ميتوان مقالة حاضر را بهنوعي تفصيل و تکميل دو مقالة مکتوب نگارنده دانست. افزون بر اين، پژوهش حاضر به برخي نگرانيها از ناحية هوش مصنوعي اشاره کرده و به صورت اختصاصي با مباني فلسفي آيتالله مصباح يزدي، سند مزبور را بررسي کرده است.
بنابراين نوشتار حاضر سعي دارد با روش «توصيفي ـ تحليلي» اين سند بينالمللي در حوزة اخلاق هوش مصنوعي را بررسي کند. بنابراين مسئلة اصلي اين مقاله سنجش و واکاوي مباني ارزشي سند اخلاق هوش مصنوعي «يونسکو» با نظرية فلسفة اخلاق آيتالله مصباح يزدي است.
پژوهش حاضر نخست نگرانيها، اخلاق هوش مصنوعي و امکان اخلاقمندي رباتها را تبيين کرده است. سپس مباني ارزشهاي اخلاقي سند مذکور را تحليل نموده و سرانجام نظرية «اخلاق هوش مصنوعي» بنا بر انديشة اين فيلسوف معاصر را ارائه داده است.
1. نگرانيها از ناحية هوش مصنوعي
از منظر برخي ظهور «ابرهوش» و يا در رويکرد ديگري «هوش عمومي مصنوعي» (Artificial General Intelligence) امري اجتنابناپذير است. اما در اينکه چقدر طول ميکشد تا هوش مصنوعي در همة تواناييها به سطح هوشمندي انساني برسد (هوش عمومي مصنوعي) و يا از تواناييهاي انساني بالاتر برود (ابرهوش)، در ميان انديشمندان اختلاف نظر وجود دارد. ولي در ميان برخي محققان، نگرانيهاي عميقي از اين ناحيه ناظر به نوع انسانها ترسيم شده است که برخي از اين نگرانيها خيالپردازانه و برخي آيندهپژوهانه بهحساب ميآيند (ر.ک. تگمارک، 1401). حتي انديشمندان از ناحية هوش مصنوعي محدود (Narrow AI) نيز نگرانيهايي را حس ميکنند.
ازاينرو اين مسئله بين انديشمندان، فلاسفه و مهندسان موضوع بحث قرار گرفته است که آيا توسعة هوش مصنوعي را ادامه دهند؟ زيرا توسعة بيش از حد و بيهدف هوش مصنوعي برخي نگرانيهاي اخلاقي، حقوقي و حکمراني در پي خواهد داشت. هرچند برخي افراد تنها به توسعه و پيشرفت جنبة مهندسي و فني هوش مصنوعي اهميت ميدهند، ولي تحقيق و پژوهش در حوزههاي ديگري همچون مباحث اخلاقي و حکمراني نيز ضروري است؛ همانگونه که در سطح دنيا تحقيق و پژوهش در بُعد مباحث نظري، فلسفي، مسائل حکمراني و اخلاقي در حوزة هوش مصنوعي از اهميت فراواني برخوردار است.
برخي رهبران فناوري و کارشناسان مطرح هوش مصنوعي (همانند ايلان ماسک، استيو وزنياک و ديگران) به خاطر برخي نگرانيها (در سال 2023) با امضاي نامهاي سرگشاده خواستار توقف موقت تحقيقات هوش مصنوعي شدند تا زمينة تدوين مقررات و قوانين فراهم شود. در همين سال، سام آلتمن مديرعامل «OpenAI» در مقابل کنگرة امريکا به نگرانيها از ناحية هوش مصنوعي اقرار کرد و خواستار نظارت بر هوش مصنوعي شد (https://www.techtarget.com/searchenterpriseai/definition/AI-governance).
چند سال پيش نيز بيستهزار محقق نامهاي را امضا کردهاند و به سياستگذاران دربارة خطرات سلاحهاي خودمختار ـ که ممکن است از الگوريتمهايي براي حمله به اهداف خاص استفاده کنند ـ هشدار دادند (وييوان و کنگ، 2018، ص3).
افزون بر اين، در حال حاضر ابتکارات زيادي در زمينههاي اخلاقي و اجتماعي و جنبههاي حقوقي هوش مصنوعي در سراسر دنيا و در سازمانهاي بينالمللي و مراکز دانشگاهي و تحقيقاتي در حال انجام است. براي نمونه، محققان هوش ماشيني مؤسسه «MIRI» هدف خود را «همسوسازي هوش مصنوعي پيشرفته با منافع انساني» عنوان کردهاند (https://intelligence.org).
استنفورد «مؤسسة هوش مصنوعي انسانمحور» را در سال 2019 تأسيس کرد که هدف اصلي آن پيشبرد تحقيقات، آموزش و سياستگذاري هوش مصنوعي براي بهبود شرايط انساني است (https://hai.stanford.edu).
مؤسسة مهم ديگر «مؤسسة آيندة زندگي» (Future of Life Institute) است که در سال 2015 تأسيس شده است. مأموريت اين مؤسسه هدايت فناوري تحولآفرين به سمت سودمندي و دوري از خطرات بسيار شديد است. (https://futureoflife.org).
از ديگر مراکز در اين حوزه، «رصدخانة سياست هوش مصنوعي» (OECD AI Policy Observatory) است. اين رصدخانه خود را يک مرکز جهاني براي سياستگذاري هوش مصنوعي معرفي کرده است. اين مرکز سعي دارد با تبيين برخي اصول به کشورها کمک کند تا خطرات هوش مصنوعي را مديريت کرده، از منافع آن بهرهمند شوند (https://oecd.ai/en/wonk). يکي از کارهاي مهم اين رصدخانه آن است که بيش از 700 ابتکار سياست ملي هوش مصنوعي را از 60 کشور و منطقه ثبت کرده است (جوناس و ديگران، 2023، ص7-8).
اما علت اينهمه نگراني و توجه به جنبههاي حقوقي، حکمراني و اخلاقي از ناحية فناوري هوش مصنوعي چيست؟ برخي از ابعاد چرايي نگرانيهاي اخلاقي را در ادامه بيشتر تبيين ميکنيم.
حجم وسيعي از دادهها ممکن است از ناحية هوش مصنوعي دستکاري شود. اين امر ميتواند در يادگيري ماشيني و نحوة ارتباط افراد با ديگران تأثير بگذارد؛ يعني هوش مصنوعي ميتواند در چگونگي فکر و استدلال فرد بهعنوان شخص انساني تأثير بگذارد. اين دست کارها همچنين ميتواند پيامدهايي را براي سازماندهي بازار کار داشته باشد (بادينگتون، 2017، ص2-3). در همة موارد مذکور، ممکن است هوش مصنوعي در عملکردها و جهتگيريها تأثير بگذارد. بنابراين نگرانهاي مهم حقوقي و اخلاقي از ناحية هوش مصنوعي براي انسانيت وجود دارد.
البته نگرانيها و خطرات بسياري از ناحية هوش مصنوعي و در حوزههاي گوناگون قابل طرح است. برخي نگراني ميتواند جامعهشناختي و آيندهپژوهانه باشد؛ همچون مسئلة فني و طغيان هوش مصنوعي و ناتواني براي مهار ابرهوش.
همچنين برخي مسائل مهم حکمراني، سياسي و امنيتي بايد در نظر گرفته شود؛ همانند سوء استفادة قدرتهاي استکباري برخي دولتها و سازمانهاي بينالمللي از هوش مصنوعي براي مهار، نفوذ، حمله و يا استعمار ساير کشورها.
برخي چالشهاي جدي در حوزههاي معرفتشناختي، روانشناختي، انسانشناختي و دينشناختي را هم ميتوان بررسي کرد؛ همچون تأثيراتي که هوش مصنوعي بر تغيير شناخت و رفتار انسانها ميگذارد و به تبع آن، اراده، تصميمگيري، رفتار و فرهنگ افراد دستخوش تغييرات خواهد شد.
اين مقاله بيشتر بر نگرانيهاي اخلاقي از ناحية خود هوش مصنوعي تمرکز کرده است. ازاينرو بهمنظور پايش و هدايت اين فناوري بايد يک سلسله بايدها و نبايدهاي اخلاقي مد نظر قرار گيرد.
بهسبب اين نگرانيها و خطرات، اخيراً «يونسکو» به فکر افتاده است چارچوبهاي نظارت بينالمللي و ملي را فراهم آورد تا اين فناوري در نهايت، به نفع بشريت تمام شود. همانگونه که مقدمة سند اخلاقي «يونسکو» به اين مسئله تصريح ميکند، هرچند فناوري هوش مصنوعي ميتواند خدمت بزرگي براي بشريت بهشمار آيد و ملتها از آن بهرهمند شوند، اما نگرانيهاي اساسي و اخلاقي نيز وجود دارد. در کنار تهديدهاي زيستي و اقتصادي، تهديدهاي فرهنگي نيز ممکن است از اين ناحيه متوجه جوامع بشري گردد؛ يعني هوش مصنوعي ممکن است بر کرامت انساني، حقوق بشر، آزادي، سياست و فرهنگ تأثيرگذار باشد. در بندهاي 13، 14، 15 و 16 آمده است: کرامت انساني، حقوق افراد، و آزادي هاي اساسي انساني بايد از ناحية هوش مصنوعي حفظ شود و آسيب نبيند.
همچنين در بخش C بند 2 توصيهنامه به برخي مسائل جديد اخلاقي که از ناحية هوش مصنوعي شکل ميگيرد، اشاره شده است. براي نمونه، هوش مصنوعي در تصميمگيري، اشتغال و کار، تعامل اجتماعي، مراقبهاي بهداشتي، آموزش، رسانه، دسترسي به اطلاعات، شکاف ديجيتالي، دادههاي شخصي و حمايت از مصرفکننده، محيطزيست، مردمسالاري، حاکميت و قانون، امنيت، آزادي بيان، حريم خصوصي، نفي تبعيض و عدالت تأثير ميگذارد. افزون بر اين، ظرفيت هوش مصنوعي براي انجام برخي کارها ممکن است انحصار انجام برخي رفتارها در موجود زنده و حتي در انسان را به پايان برساند. ازاينرو در اين سند آمده است: امکان دارد در درازمدت سامانههاي هوشمند خودآگاهي انسان، تعامل اجتماعي، فرهنگي و محيطي، استقلال، عامل بودن و حتي احساس خاص انسانها از تجربه و عامل بودن را به چالش بکشد.
همچنين در بند 5 و 12 آمده است: اين توصيهنامه با هدف ايجاد زمينهاي براي کارکرد سامانههاي هوش مصنوعي به نفع بشريت، افراد جوامع و محيطزيست براي جلوگيري از آسيب، ارائه ميشود و در پي تشويق به استفادة صلحآميز از اين فناوري است. همچنين در بندهاي 25 و 27 براي جلوگيري از آسيب زدن هوش مصنوعي به انسانها تدابيري انديشه شده است.
بنابراين هوش مصنوعي ميتواند چالشهاي اخلاقي بسياري داشته باشد. افزون بر اين، حتي در اين سند ذکر شده است که بهطور کلي هوش مصنوعي ميتواند در علوم انساني تأثير بگذارد.
در بند 3 اين سند آمده است: «يونسکو» به مباحث آموزش، علم، فرهنگ و ارتباطات توجه ويژه دارد و در تبيين معناي «علم» در بخش B همين بند آورده است: مراد از «علم» معناي گستردهاي است که از علوم طبيعي و پزشکي گرفته تا علوم اجتماعي و انساني را شامل ميشود. علت تأثير آن را هم اينگونه بيان ميکند: از طريق فناوري هوش مصنوعي، ظرفيتها و رويکردهاي تحقيقاتي جديدي ايجاد ميشود و به تبع آن، بر تصورات ما از درک و توضيح عملي تأثير ميگذارد. ازاينرو هوش مصنوعي ميتواند مبناي جديدي براي تصميمگيري ما ايجاد کند.
بهسبب همين تأثيرات، رهبر معظم انقلاب تأکيد کرده است فرهنگ و دين اسلامي ايران بايد در پيشرفتهاي علمي و فناوري، اصل قرار گيرد، نه اينکه فرع بر آنها باشد. همچنين در همه نوع پيشرفت (ازجمله پيشرفت در حوزة فناوري) ميبايست لوازم فرهنگي آن مد نظر مسؤلان قرار گيرد و پيوست فرهنگي داشته باشد (حسيني خامنهاي، 1392).
افزون بر اين، بهسبب اهميت فناوري و تأثير بر جنبههاي گوناگون زندگي انسان، اخيراً رهبر حکيم انقلاب در حوزة هوش مصنوعي تأکيد کرد:
پيشنهاد ميکنم يکي از مسائلي که مورد تکيه و توجه و تعميق واقع ميشود، مسئلة هوش مصنوعي باشد که در ادارة آيندة دنيا نقش خواهد داشت... بايد کاري کنيم که حداقل به ده کشور اول دنيا در اين مسئله برسيم (حسيني خامنهاي، 1400).
در پي اين بيانات، برخي سازمانها و نهادها، همچون «شوراي عالي انقلاب فرهنگي» و «معاونت علمي و فناوري رياست جمهوري» به تکاپو افتادند تا برنامهاي در حوزة پيشرفت هوش مصنوعي تدوين کنند. اما به نظر ميرسد در جامعة ما بيشتر جنبة فني ـ مهندسي هوش مصنوعي مد نظر قرار گرفته است.
به بيان ديگر، به نظر ميرسد بهطور کلي دو رويکرد بين مهندسان و فلاسفه و انديشمندان نسبت به مقولة «هوش مصنوعي» وجود دارد:
يک رويکرد نگرش ابزاري صرف به سامانههاي هوش مصنوعي است. در اين نگرش، جنبههاي فني ـ مهندسي و استفادة ابزاري آن بيشتر مد نظر است.
رويکرد ديگر، رويکرد بنيادين، فلسفي و تحليلي به مسئلة هوش مصنوعي است.
در رويکرد اول نگرش خوشبينانه به اين فناوري وجود دارد و هرچند ممکن است به برخي مضرات و خطرات آن نيز اشاره شود، ولي بيشتر جنبههاي فني ـ مهندسي و استفاده از منافع و کاربردهاي اين فناوري مد نظر است. اما در رويکرد دوم با اعتراف به اينکه هوش مصنوعي منافعي براي جوامع دارد، خطرات و نگرانيهاي مهم اخلاقي نيز از ناحية فناوري هوش مصنوعي متوجه انسانهاست. افزون بر اين، در رويکرد بنيادين، فناوري هوش مصنوعي داراي مباني و مسائل فلسفي، حکمراني، فرهنگي و تمدني بوده، همچنين ميتواند در اين حوزهها نيز تأثير بسزايي بگذارد. ازاينرو در اين پژوهش رويکرد دوم، يعني رويکرد تحليلي ـ فلسفي به فناوري هوش مصنوعي مد نظر قرار گرفته است تا بتوان به صورت اساسي اين موضوع را بررسي کرد.
خلاصه اينکه بهسبب اين تأثيرات مهم از ناحية هوش مصنوعي بر مباني علوم انساني ـ بهطور عام ـ و بر ارزشهاي اخلاقي ـ بهطور خاص ـ «يونسکو» درصدد برآمده است بهعنوان بازوي فرهنگي سازمان ملل، ارزشهاي اخلاقي را در تعامل با هوش مصنوعي وضع کند.
بنابراين مسئلة اصلي و اساسي پژوهش حاضر اين است که ارزشهاي اخلاقي سند مذکور مبتني بر کدام مکتب اخلاقي است؟ آيا اين مباني با اصول ارزشهاي اخلاقي مکتب اسلام و فيلسوفان مسلمان، همچون آيتالله مصباح يزدي سازگاري دارد؟
2. مفهومشناسي
پيش از ورود به بررسي سند و مسائل مزبور، شايسته است به اجمال اصطلاح «اخلاق هوش مصنوعي» (Ethics of Artificial Intelligence) و رويکردهاي مختلف در اين زمينه تبيين شود. هرچند اصطلاح «اخلاق هوش مصنوعي» بهتازگي مطرح شده، اما واژة «اخلاق» در ارتباط با انسان از ديرباز در ميان انديشمندان مسلمان و غربي محل بحث قرار گرفته است. ازاينرو شايسته است براي تبيين مفهوم «اخلاق هوش مصنوعي»، نخست تبيين مختصري دربارة مفهوم «اخلاق» ارائه دهيم:
1-2. اخلاق
«اخلاق» جمع «خُلق» است. علماي اخلاق اسلامي تعريفهاي متنوعي براي «خُلق» ارائه دادهاند. در تعريفي، «خُلق» ملکهاي است که نفس به مقتضاي آن، بهسادگي فعلي را بدون احتياج به فکر کردن و تأمل نمودن انجام ميدهد. فرق «حال» با «ملکه» آن است که «حال» کيفيت نفساني است که بهسرعت از بين ميرود، ولي «ملکه» کيفيتي نفساني است که بهسختي از بين ميرود (طوسي، 1413ق، ص63).
همانگونه که صاحبان صنعت و حرفه بهسهولت کار خود را انجام ميدهند، صاحبان ملکات نفساني نيکو و زشت نيز بهسهولت کار خوب يا بد انجام ميدهند. افزون بر اين، در تعريف «علم اخلاق» در کتاب فلسفة اخلاق آيتالله مصباح يزدي آمده است:
ميتوان آن را به دانشي تعريف کرد که از انواع صفات خوب و بد و چگونگي اکتساب صفات خوب و زدودن صفات بد بحث ميکند. موضوع علم اخلاق عبارت است از: صفات خوب و بد از آن جهت که مرتبط با افعال اختياري انسان بوده، براي او قابل اکتساب يا اجتناباند (مصباح يزدي، 1391، ص 25).
ازاينرو بنا بر نگرش آيتالله مصباح يزدي، اخلاق تنها ناظر به حوزة صفات دروني انسان نيست، بلکه رفتار اختياري را هم که منجر به کسب اين صفات ميشود، دربر ميگيرد. اما در سوي ديگر، به باور برخي انديشمندان علم اخلاق مغربزمين (نظير ژکس) ارزشهاي اخلاقي تنها ناظر به رفتار افراد است. ازاينرو آنها علم اخلاق را بيانکنندة ارزش و لزوم رفتارها معرفي ميکنند (ژکس، 1362، ص9).
همچنين از منظر مکاتب غيرواقعگرا و قراردادگرا ـ که در ادامه ديدگاه آنها تبيين خواهد شد ـ تمرکز اصلي بر روي رفتار انسان است. در اين صورت، از منظر آنها هدف اصلي اخلاقي تصحيح خود رفتار است و وراي آن هدف ديگري را دنبال نميکنند (مصباح، 1390، ص26).
اما در توصيهنامة «يونسکو» تعريف دقيق و روشني از «اخلاق» ارائه نشده است. البته ميتوان بهطور کلي بيان کرد: هدف اين توصيه از تأکيد بر ارزشهاي اخلاقي، اصلاح صفات دورني انساني نيست. دليل اين ادعا به مباني هستيشناختي، انسانشناختي و ارزش شناختي و روح سند مذکور برميگردد ـ که در ادامه، تبيين خواهد شد.
افزون بر اين، برخي مفاد اين توصيه، همچون بند اول تصريح ميکند که هدف اخلاقي اين سند اصلاح برخورد و رفتار مسئولانه است و در کل سند، به صفات دروني انساني اشارهاي نشده است. بنابراين مشخص ميشود که تمرکز اصلي اين سند بر تصحيح رفتار انسانهاست.
هرچند اين دغدغه در جاي خود ارزشمند است، اما اگر تنها تصحيح رفتار بدون توجه به باطن انسان معيار باشد، با مباني اخلاق اسلامي فاصله دارد.
اما در انديشة علامه مصباح يزدي، هم رفتار انساني از اهميت خاصي برخوردار است و هم صفات نفساني. وي افزون بر رويکرد برخي انديشمندان مسلمان ـ که تنها به صفات اخلاقي توجه دارند ـ بر موضوع رفتار نيز تأکيد دارد. از منظر ايشان، رفتار اخلاقي است که موضوع قضية اخلاقي قرار ميگيرد (مصباح يزدي، 1384، ص325ـ326).
بنابراين در مباحث اخلاق، هم صفات اکتسابي بايد مد نظر قرار گيرد و هم رفتارهاي اختياري؛ زيرا هم صفات دروني (مثل سخاوت، بخل، تواضع و کبر) متصف به خوبي و بدي و متعلق بايد و نبايد قرار ميگيرد و هم رفتارهاي بيروني انسان نيز قابل تحسين و تقبيح است و متعلق بايد و نبايد قرار ميگيرد. همچنين بيشتر صفات و ملکات اخلاقي از تکرار اعمال و رفتار افراد به وجود ميآيد.
در نتيحه، تفاوت اساسي اين دو رويکرد اين است که اگر صفات دروني و ملکات انساني مورد توجه قرار گيرد، شما ميتوانيد حالات دروني (مثل نيت، اخلاص، ريا و از اين قبيل) را ارزشگذاري کنيد. ولي اگر هدف و معيار ارزش اخلاقي تنها تصحيح رفتار انسان باشد، ديگر نميتوانيد حالات دروني انسان را که ظهور بيروني ندارد، ارزيابي کنيد. بنا بر اين نگرش ـ براي نمونه اگر کسي با نيت خالص و الهي براي خدمت به مردم مدرسهاي بسازد و ديگري با نيت ناخالص و يا شيطاني و يا تنها براي معروفشدن مدرسهاي بسازد، هر دو رفتار به يک ميزان ارزشمند است؛ زيرا هر دوي آنها رفتار صحيح را ـ که همان مدرسهسازي است ـ بهدرستي انجام دادهاند، اما با انگيزه و نيت متفاوت که در اين رويکرد قابل سنجش نيست.
افزون بر اين، ناظر به مسئلة پژوهش حاضر، پيامد مهم ديگر اين دو رويکرد مشخص ميشود. اگر تنها ملاک رفتار باشد، ميتوان رفتار هوش مصنوعي را ارزشگذاري اخلاق کرد و حتي با رفتار و موجود مختاري مانند انسان مقايسه و ارزيابي کرد. فرض کنيد يک ربات خدمتکار يا همدم طراحي شده است که از سالمند و يا کودک مراقبت ميکند. حال اگر روزي رفتاري انجام داد و به سالمند و کودک آسيبي زد، بنا بر رفتارگرايي ميتوان رفتار اين ربات را ارزشگذاري اخلاقي کرد.
ولي اگر افزون بر رفتار، در انجام افعال، صفات دروني هم مطرح باشد، مسئله به اين سادگي نيست؛ زيرا بايد بررسي کرد که آيا تصميمگيري ربات بر انجام اين فعل ناشي از آگاهي، اراده، و اختيار است؟ يا اينکه رباتها و هوش مصنوعي حالات دروني (مثل آگاهي و اراده) همانند انسان ندارند تا آن فعل را «اختياري / اخلاقي» بدانيم، بلکه اين نوع تصميمگيري سامانة هوشمند ممکن است ناشي از مشکلات سختافزاري و يا نرمافزاي تعبيهشده در آن باشد؟
2-2. اخلاق هوش مصنوعي
آيا منظور «از اخلاق هوش مصنوعي» اين است که خود ماشينهاي هوشمند رفتار اخلاقي داشته باشند؟ يا اينکه منظور اين است که انسانها در استفاده از هوش مصنوعي، ارزشهاي اخلاقي را مراعات کنند؟ بهطور کلي، ميتوان گفت: بنا بر مباني هستيشناختي و انسانشناختي، رويکردهاي متفاوتي در اين مسئله ميتواند وجود داشته باشد.
3. رويکردهاي مختلف در اخلاق هوش مصنوعي
1-3. رويکرد اول
در يک رويکرد، خود هوش مصنوعي و رباتها مخاطب بايد و نبايد اخلاقي قرار ميگيرد. «قوانين سهگانة رباتيک» که نخستين بار در سال 1942 توسط ايزاک آسيموف براي جلوگيري از آسيبرساني رباتها به انسان ارائه شد، از اين قسم است (ر.ك. راسل و نورويگ، 2020).
2-3. رويکرد دوم
در رويکرد ديگر، اخلاق هوش مصنوعي بخشي از اخلاق ماشين است؛ يعني هدف از اخلاق ماشين اين است که ميبايست ماشيني ايجاد شود که دستکم از يک اصل اخلاقي مطلوب و يا مجموعهاي از اصول اخلاقي پيروي کند. (اندروسن و اندروسن، 2007، ص15).
مقصود از «پيروي هوش مصنوعي از اصل اخلاقي» داراي ابهام است. آيا منظور اين است که ربات به اختيار خودش يک اصل اخلاقي را دنبال کند؟ اگر اين نگرش مراد باشد، همان رويکرد اول خواهد بود. ولي اگر منظور اين است که سامانههاي هوشمند طوري برنامهريزي شود که رفتار اخلاقي متناسب با رفتار انسان از آنها سر بزند، اين را ميتوان رويکرد ديگري غير از رويکرد اول به حساب آورد.
بهعبارت واضحتر، در رويکرد دوم منظور از «اخلاق هوش مصنوعي» اين است که چگونه ميتوان رمزهاي (کدهاي) اخلاقي را در سامانههاي هوشمند تدوين کرد تا از خطرات احتمالي هوش مصنوعي عليه انسانها جلوگيري شود. (بادينگتون، 2017، ص1) البته خطرات از ناحية هوش مصنوعي منحصر به انسانها نيست، بلکه ميتواند به حيوانات و محيطزيست نيز آسيب برساند.
بههرحال، در اين رويکرد ديگر خود ماشينهاي هوشمند متصف به بايد و نبايد و يا تصميمگيري اخلاقي نميشوند. بلکه آنها بهنوعي از جبر اخلاقي برخوردارند؛ زيرا آنها بهمثابة يک ماشين حساب ميشوند؛ البته ماشين هوشمندي که برنامههاي اخلاقي دادهشده به آنها را بهخوبي پيادهسازي ميکند.
3-3. رويکرد سوم
اما در رويکرد متفاوتتر و عامتر از دو رويکرد پيشين، اخلاق هوش مصنوعي ناظر به چگونگي استفادة انسانها از اين ابزار و فناوري نوين است؛ يعني انسانها به طور مستقل مخاطب اصلي بايدها و نبايدهاي اخلاقي هستند. در اين رويکرد انسانها مسئول رفتار خويشاند و همة نقشآفرينان حوزة هوش مصنوعي ـ اعم از دولتها، سازمانها، مهندسان و برنامهنويسان، کاربران و استفادهکنندگان ـ را دربر ميگيرد. ازاينرو همة اين نقشآفرينان موظفاند در جهت ارزشهاي اخلاقي اين فناوري را توسعه دهند يا از آن استفاده کنند.
تا اينجا به اختصار سه رويکرد دربارة اخلاق هوش مصنوعي تبيين شد، اما در ادامه، بيشتر به تحليل و بررسي اين سه رويکرد ميپردازيم. در تحليل اين سه رويکرد لازم است اين مسائل بررسي شود: آيا خود رباتها ميتوانند به بايد و نبايد اخلاقي متصف شوند؟ (تحليل رويکرد اول) آيا بنا بر رويکرد دوم از منظر اخلاق اسلامي، ميتوان برنامهريزي را براي سامانههاي هوشمند ارائه کرد؟ (تحليل رويکرد دوم) سند اخلاق هوش مصنوعي ناظر به کداميک از اين سه رويکرد نوشته شده است؟ و از منظر مباني اخلاق اسلامي بنا بر رويکرد سوم چه نظريهاي را ميتوان ارائه داد؟ (تحليل رويکرد سوم)
پاسخ به اين مسائل و اتخاذ رويکرد مختار از بين رويکردهاي سهگانه، در گرو آن است که بررسي شود محققان و انديشمندان چه نگرشي به هويت هوش مصنوعي دارند.
4. هوش مصنوعي قوي و ضعيف
بنا بر رويکرد اول خود سامانههاي هوشمند به بايد و نبايد اخلاقي متصف ميشدند. تحليل و نقد اين رويکرد و اتخاذ رويکرد مناسب در اينباره نيازمند آن است که دو اصطلاح رايج در حوزة هوش مصنوعي توضيح داده شود. به نظر ميرسد اين نوع رويکردهاي متفاوت در حوزة اخلاق هوش مصنوعي، متأثر از دو مکتب فکري مختلف به مقولة هوش مصنوعي باشد:
يک مکتب «رويکرد هوش مصنوعي ضعيف» (Weak AI) است. اين مکتب فکري با مؤسسه فناوري ماساچوست مرتبط است. در اين رويکرد تنها معيار اين است که برنامة بهکاررفته در هوش مصنوعي(AI) بهدرستي و رضايتمندانه انجام شود. اما «رويکرد هوش مصنوعي قوي» (Strong AI) مکتب فکري ديگري است که با رويکرد دانشگاه کارنگي ملون به هوش مصنوعي ظهور پيدا کرده است. در اين مکتب رفتار هوش مصنوعي با رفتار انسان سنجيده ميشود. اين در حالي است که در رويکرد ضعيف با عملکرد سامانه سنجيده ميشد. در رويکرد قوي به دنبال شبيهسازي سامانة ادراکي انسان در هوش مصنوعي هستند. افزون بر اين، طرفداران هوش مصنوعي قوي بر اين باورند که به سبب دستيابي به اکتشافات، الگوريتمها و دانش برنامههاي نوين، هوش مصنوعي ميتواند داراي حس، هوشياري و هوش باشد (لوسي و کوپس، 2016، ص12).
بهطور کلي در رويکرد قوي، رفتار ماشين بر اساس شباهت با عملکرد انسان سنجيده ميشود. اما در رويکرد ضعيف مهندس تنها انتظار رفتار موفقيتآميز از سامانة هوشمند طراحيشده را دارد.
با اين وصف، در توصيهنامة اخلاقي هوش مصنوعي «يونسکو» بهصراحت به دو رويکرد قوي و ضعيف در زمينة هوش مصنوعي اشاره نشده، اگرچه در برخي بندهاي سند از آسيبها و خطرات پيشرفت ماشينهاي هوشمند در آينده اعلام نگراني شده است. ازاينرو به نظر ميرسد برخي نگرانيها ناظر به رويکرد هوش مصنوعي قوي در اين فناوري وجود دارد. براي نمونه در انتهاي بخش C بند 2 توصيهنامه ـ که به برخي نگرانيهاي اخلاقي از ناحية هوش مصنوعي اشاره شده ـ آمده است که ظرفيت هوش مصنوعي براي انجام برخي کارها، انحصار انجام برخي رفتارها در موجود زنده و حتي در انسان را به پايان ميرساند. ازاينرو در اين سند آمده: ممکن است در درازمدت سامانههاي هوشمند خودآگاهي انسان، تعامل اجتماعي و فرهنگي و محيطي، استقلال، عامل بودن و حتي احساس خاص انسانها از تجربه و عامل بودن را به چالش بکشد.
بنابراين در اسناد بينالمللي اگرچه بيشتر بر هوش مصنوعي ضعيف تأکيد شده، ولي در عبارت مزبور آمده است: عامليت انسان و يا خودآگاهي انسان و يا احساس انسان بودن ممکن است در آينده دچار چالش گردد. زماني اين امور به چالش کشيده ميشود که هوش مصنوعي نيز داراي اين ويژگيها شود. به بيان ديگر، با پيشرفت هوش مصنوعي ممکن است اين فناوري هوشمند به حوزههاي اختصاصي انساني ورود پيدا کند و همانند انسان ويژگيهايي نظير احساسات و خودآگاهي داشته باشد. بدينسان در اين سند با بيان اين دغدغهها و نگرانيها بهنوعي به امکان تحقق هوش مصنوعي قوي در آينده اشاره شده است.
بههرحال، آيا بنا بر مباني علمالنفس اسلامي، رباتها ميتوانند به بايد و نبايد اخلاقي متصف شوند و يا همانند انسان تصميمهاي اخلاقي بگيرند؟ انجام رفتار اخلاقي متوقف بر آگاهي و درک معناي «خوب» و «بد» و مبتني بر اختيار و اراده است. اراده نيز مستلزم داشتن ذهن و يا نفس است. ازاينرو بنا بر مباني علمالنفس اسلامي، هوش مصنوعي (قوي) زماني ميتواند رفتاري اخلاقي از خود نشان دهد که داراي ذهن و يا نفس خودآگاه باشد. هرچند بررسي اين مسئله و امکان تحقق هوش مصنوعي قوي نيازمند يک تحقيق مستقل است و پرداختن به آن در حوصلة اين مقاله نيست، ولي در ادامه به اختصار اين مسئله را بررسي ميکنيم:
هرچند کارکردهاي پيچيدهاي از سامانة هوشمند بروز ميکند و در برخي موارد (همچون محاسبه، پردازش اطلاعات، حافظه و يادگيري) ممکن است از انسانهاي معمولي قويتر باشد، ولي نميتوان آن را بهمثابة يک «ساختار واحد زيستي» و بهعنوان يک «هويت واحد، زنده و خود آگاه» بهحساب آورد، بلکه هوش مصنوعي به لحاظ وجودي، يک ماشين و ربات مرکب از اجزاست که يک سلسله کارکردهاي هماهنگ انجام ميدهد. ازاينرو بنا بر مباني علمالنفس صدرايي شيئي همچون هوش مصنوعي به لحاظ وجودي، هويت واحد ندارد. پس نميتواند ذهن و نفس داشته باشد.
افزون بر اين، به نظر ميرسد در توصيهنامة اخلاقي «يونسکو» با تعريفي که از «هوش مصنوعي» ارائه شده، رويکردي ضعيف اتخاذ شده است. همانگونه که در بند 2، بهويژه بخش A تأکيد ميکند، نگاه اين سند به سامانههاي هوش مصنوعي بهمثابة فناوريهاي داراي پردازش اطلاعات، به شيوهاي شبيه رفتار هوشمند است.
همچنين در بند 26 اشاره ميکند: هوش مصنوعي نبايد تصميمگير نهايي در مسائل مهمي همچون مرگ و زندگي باشد، بلکه اختيار آن بايد به دست انسانها باشد. اين بدان معناست که هوش مصنوعي در انجام افعال خود اختيار تام ندارد. اين مطلب ناظر به رويکرد هوش مصنوعي ضعيف است؛ زيرا اگر منظور هوش مصنوعي قوي بود خودش ميتوانست بهتنهايي تشخيص دهد و تصميم بگيرد و مسئوليت رفتار خويش را نيز بپذيرد.
افزون بر اين، مراد از «اخلاق هوش مصنوعي» در اين توصيهنامه متمرکز بر ارتباط با رفتار انسانها و بازيگران هوش مصنوعي است، نه اينکه خود سامانههاي هوشمند را مخاطب بايد و نبايد اخلاقي قرار دهد.
5. تحليل سه رويکرد در اخلاق هوش مصنوعي
بنابراين رويکرد اول به امکان اخلاقمندي خود رباتها همانند انسان، بنا بر مباني علمالنفس اسلامي منتفي است. به بيان ديگر، خود هوش مصنوعي نميتواند به بايدها و نبايدهاي اخلاقي متصف شود.
اما رويکرد دوم امکان اخلاقمندي ربات و هوش مصنوعي به لحاظ مهندسي و برنامهنويسي، نه اينکه امکانپذير باشد، بلکه ضروري است. همانگونه که در مقدمه و برخي بندهاي توصيهنامة «يونسکو» آمده است، بايد هوش مصنوعي را به سمت ارزشهاي اخلاقي هدايت کرد. در اين زمينه بعضي دانشگاهها، مراکز تحقيقاتي و مؤسسات در تلاشاند تا براي کاهش خطرات هوش مصنوعي، رمزهاي اخلاقي را در آنها تعبيه کنند (بادينگتون، 2017، ص3).
البته آنها مبتني بر مباني و ارزشهاي اخلاقي خود سعي دارند تا با رمزنويسي، هوش مصنوعي را اخلاقمند کنند. اما جامعة اسلامي مباني و ارزشهاي اخلاقي خاص خود را دارد. بنابراين با توجه به رويکرد دوم در امکان اخلاقمندي ماشينهاي هوشمند در جامعة اسلامي ميتوان اين نظر را مطرح کرد: «ميتوان با به کاربردن الگوريتمها و با ارائة دادهها و برنامههايي مبتني بر ارزشهاي اخلاقي اسلامي، به گونهاي رفتار ماشين را جهتدهي کرد. همچنين از سامانههاي هوشمند در ترويج ارزشهاي اخلاقي اسلامي و مقابله با مطالب ضداخلاقي استفاده نمود».
لازم به ذکر است بهسبب آنکه حوزة اخلاق هوش مصنوعي يک حوزة ميانرشتهاي است، اين نظر زماني محقق خواهد شد که همکاري و همافزايي بين مهندسان و برنامهنويسان هوش مصنوعي با انديشمندان حوزة علوم انساني و علوم ديني و فلاسفه به صورت جدي و اساسي شکل بگيرد.
تا اينجا در تبيين مفهوم «اخلاق هوش مصنوعي» سه رويکرد ارائه شد و مشخص گرديد بنا بر مباني اسلامي، رويکرد اول در امکان اخلاقمندي خود سامانههاي هوشمند و رباتها منتفي است. اما اخلاقمندي هوش مصنوعي بنا بر رويکرد دوم، نهتنها امکانپذير است، بلکه ضروري هم هست؛ چنانکه در سطح دنيا اين مسئله مورد اهتمام قرار گرفته است. ازاينرو در جامعة اسلامي نيز بايد با همکاري مهندسان و انديشمندان حوزة اخلاق اسلامي اين امر محقق شود.
اما رويکرد سوم در اخلاق هوش مصنوعي به بايدها و نبايدهاي استفادة انسان از اين فناوري برميگردد. اين رويکرد در بخش پيش رو و در ضمن تحليل منشأ ارزش اخلاقي سند «يونسکو» بررسي و تبيين خواهد شد. در انتها بنا بر مباني فلسفة اخلاق آيتالله مصباح يزدي، نظريهاي دربارة اخلاق هوش مصنوعي در ارتباط با رفتار انسان ارائه خواهد گرديد.
6. تحليل منشأ ارزش اخلاقي توصيهنامه و سازگاري آن با نظرية اخلاقي اسلام
منشأ ارزش و لزوم اخلاقي بهکاربرده شده در اين توصيهنامه با کداميک از مکاتب اخلاقي سازگاري دارد؟ به نظر ميرسد منشأ ارزش و هنجارهايي که در اين توصيهنامه به آنها اشاره ميشود از نوع قراردادگرايي باشد. اين مطلب با تأمل در برخي مفاد قابل اثبات است. در مقدمة سند، حقوق بشر و آزادي را به تأييد و پذيرش مردم مبتني کرده است. همچنين در بند 6 بيان نموده است: «هدف اين توصيهنامه رسيدن به يک ابزار هنجاري پذيرفتهشده در سطح جهاني است». در نتيجه، اين مفاهيم را ملاک هنجارهاي اخلاقي معرفي ميکند و بر اساس آنها «بايدها و نبايدهاي اخلاقي» را در حوزة هوش مصنوعي معين ميسازد. عبارتهاي مذکور ما را به اين سمت سوق ميدهد که بپذيريم مباني بهکاررفته در اين متن، برخاسته از مکاتب غيرواقعگرايي و از نوع قراردادگرايي است.
اما اشکال قراردادگرايي چيست؟ (نگارنده در تحقيق ديگري به تفصيل اين مطلب را تبيين کرده است. ر.ک. محسني و ديگران، 1402، ص194-204). اشکال اصلي آن است که مکتب «قراردادگرايي» ذيل مکاتب غيرواقعگرا ميگنجد (ر.ک. مصباح، 1390؛ مصباح يزدي، 1384). ازاينرو نسبيتگرايي و کثرتگرايي از لوازم مهم قراردادگرايي است (ر.ک. مصباح، 1390؛ مصباح يزدي، 1384).
با اين وجود، مفاد بندهاي 131 تا 134 که در حوزة نظارت و ارزيابي تأثيرات اخلاقي فناوريهاي هوش مصنوعي است و سعي دارد روشي را براي اين ارزيابي ارائه دهد، دچار مشکل اساسي ميشود؛ زيرا بنا بر کثرتگرايي، ديگر نميتوان روش واحدي را براي بررسي تأثيرات اخلاقي در کشورهاي عضو ارائه داد.
ممکن است در پاسخ اين اشکال که گفته شود: جوامع بر يک اصل کلي و مشترک اجماع کردهاند و آن اصل کلي نظير نفي ضرر هوش مصنوعي ميتواند ملاک ارزيابي باشد.
در نقد اين پاسخ ميتوان گفت: اين اصل ثابت است يا در جوامع مختلف متفاوت است؟ اگر اين اصل ثابت و مطلق باشد به نوعي ناقض ديدگاه کثرتگرايي خواهد بود و اگر در جوامع مختلف فرق کند باز نميتواند ملاک واحدي براي ارزيابي همة جوامع باشد.
7. بررسي موضوع و هدف علم اخلاق در مکاتب اخلاقي
اما مسئلة اصلي که در اين کاوش به آن ميپردازيم، تبيين موضوع و هدف علم اخلاق است. در فلسفة اخلاق ديدگاههاي متفاوتي دربارة موضوع و هدف اخلاقي وجود دارد. با تبيين برخي ديدگاهها دربارة موضوع و هدف علم اخلاق، رويکرد اين توصيه در اين زمينه نيز روشن ميشود.
اگر بخواهيم دربارة چيزي بينديشم فرق ميکند که با چه سؤالهايي آغاز کنيم. پرسشهاي اساسي ارسطو در اخلاق نيکوماخوس دربارة شخصيت است. ارسطو با اين پرسش شروع ميکند: «خير بشري چيست؟» و پاسخ او اين است: خير بشري فعاليتي از روح آدمي است که مطابق با فضيلت باشد. بنابراين براي فهم اخلاق بايد فهميد که چه چيزهايي شخص را بافضليت ميکند (ريچلز، 1389، ص239).
علاوه بر رفتار، ما دربارة اشخاص هم داوري ميکنيم. اخلاق مبتني بر فضيلت عمدتاً با اشخاص سروکار دارد؛ اما اخلاق مبتني بر فضيلت به راهنمايي کردار هم ميپردازد. حکم تعيينکننده در اخلاق مبتني بر کردار اين است که «کاري را درست انجام بده». حکم تعيينکننده در اخلاق فضيلتمحور چيزي نيست جز اينکه «شخص خوبي باشد» (هولمز، 1389، ص78).
همانگونه که گذشت، ارزشهاي اخلاقي در اين سند مبتني بر نظرية «قراردادگرايي» است. نظرية «قراردادگرايي» ذيل ديدگاه «وظيفهگرايي اخلاقي» (Ethics of Duty) ميگنجد. در اين ديدگاه معيار ارزيابي اخلاقي عمل به تکليف و وظيفه است (محيطي و احمدي، 1400، ص162). نظرية «اخلاق وظيفه» ديدگاهي است که از سوي برخي از انديشمندان علم اخلاق مغربزمين مطرح شده است. ارزشهاي اخلاقي را صرفاً ناظر به رفتارها ميدانند و علم اخلاق را بيانکنندة ارزش و لزوم رفتارها معرفي ميکنند (ژکس، 1362، ص9). هدف اصلي اخلاقي را نيز تصحيح خود رفتار دانسته، وراي آن هدف ديگري را نشان نميدهند (مصباح، 1390، ص26).
اما در ديدگاه «اخلاق فضيلت» (Ethics of Virtue) صفات دروني نفساني متصف به ارزشهاي اخلاقي ميشود و علم اخلاق عهدهدار بيان ارزش و لزوم اين صفات است. هدف علم اخلاق در اين رويکرد، آراستن نفس به کمالات نفساني پسنديده و زودن صفات ناپسند از آن است. رفتارها و اعمال انسان که وسيلهاي براي تحقق اين امر است نيز در اين رويکرد ارزشگذاري ميشود. بهعبارت ديگر، هدف در اين رويکرد دستيابي به کمال نفس است.
برخي علماي مسلمان بر اساس انسانشناسي خاص خود، همين ديدگاه را اختيار کردهاند. از نظر ايشان حقيقت وجود انسان نفس مجرد اوست و کمال و نقص واقعي انسان نيز ناظر به همين نفس يا روح است. کمال و نقصي که با افعال اختيار انسان در اين دنيا بهدست ميآيد در روح او باقي ميماند و انسان پس از مرگ با همانها محشور ميشود (نراقي، 1209ق، ج1، ص36-39).
در رويکرد «فضيلتمحور» ارزشگذاري مربوط به اشخاص است، نه رفتار. اما اين تأکيد در فلسفة اخلاق نوين جاي خود را به رويکردي بهشدت قانونپرستانه، به رفتار داده است. ازاينرو قواعد و اصول بر صدر نشستهاند (هولمز، 1389، ص70). درواقع وجه تمايز اصلي در اين است که اخلاق فضيلتمحور ناظر به ارزشهاي اخلاقي بوده و ديدگاه وظيفهگرا ناظر به الزام اخلاقي است. ازاينرو مسئلة اصلي در اخلاق فضيلتمحور اين است که «چگونه انساني باشيم؟» و در نظرية وظيفهمحور دغدغة اصلي اين است که «چه فعلي را بايد انجام دهيم؟» (خزاعي، 1389، ص18). بنابراين يک شخص ممکن است از فضايل اخلاقي بيبهره باشد، ولي به قصد انجام وظيفه، يک عمل اخلاقي را انجام دهد.
به همين سبب است که برخي ارزشگذاريهايي که انجام ميدهيم مربوط به اشخاص است، نه کردار. ما حکم ميکنيم که مردم خوب يا بد، وظيفهشناس يا بيمسئوليت، درخور ستايش يا درخور نکوهش هستند. اين رويکرد بهجاي آنکه تأکيدش بر کردار باشد، در پي راهنمايي انسان بهجانب صفاتي است که بزرگمنشي را به بار ميآورند. اين صفات را «فضايل» مينامند و اين جهتگيري معرفت اخلاق مبتني بر فضيلت است (هولمز، 1389، ص70).
به باور اخلاق فضيلتيها، بهسبب فضيلت راستگويي است که نبايد دروغ گفت؛ يعني اين نظريه بر راستگو بودن تأکيد دارد و آن دو (سودگرايي و وظيفهگرايي) بر راست گفتن. وجه تمايز اصلي آنها اين است که اخلاق فضيلت ناظر به ارزشهاي اخلاقي است و دو نظرية «سودگرايي» و «وظيفهگرايي» ناظر به الزام اخلاقي. ازاينرو مسئلة اصلي در اخلاق فضيلت اين است که «چگونه انساني باشيم؟» و در دو نظرية ديگر اينکه «چه فعلي را بايد انجام دهيم؟» تمايز بين فضيلتمحوري و عملمحوري موجب ميشود تا بتوانيم بين انجام يک عمل بهظاهر فضيلتمندانه و فضيلتمندانه عمل نمودن تمايز قائل شويم (خزاعي، 1389، ص18).
ازاينرو نقد مبنايي به متن «يونسکو» آن است که مفاد توصيهنامه به علت آنکه از قسم مکاتب قراردادگرايي غيرواقعگراست، وظيفهمحور و عملمحور است. پس همانگونه که در بند 10 سند «يونسکو» آمده، ارزشهاي ذکرشده در اين سند الهامبخش رفتار مطلوب است؛ يعني ارزشهاي اخلاقي آن تنها متوجه اصلاح کنش و رفتار ظاهري انسان است. در نتيجه، در اين سند اخلاقي اصلاً به مباحثي همچون کمالات نفساني، رابطة انسان با خدا، تأثير واقعي ارزشهاي اخلاقي در روح و نفس انسان و مواردي از اين دست، اشاره نشده است.
اما نظرية اخلاقي مکتب اسلام با رويکرد آيتالله مصباح يزدي بسي متفاوت از ديدگاه فضيلتگرايانه است. اين ديدگاه نکات مثبت ديدگاه «فضيلتگرايي اسلامي» را در خود دارد و افزون بر آن، نوعي ديدگاه غايتانگارانه و کمالجويانه است. در اين انديشه، رفتار اختياري نيز موضوع علم اخلاق است (مصباح يزدي، 1384، ص325)؛ زيرا برخي صفات نفساني با تکرارِ رفتار اختياري به دست ميآيد (مصباح يزدي، 1373، ص9). رفتار اختياري انسان وسيلهاي براي رسيدن به اهداف مطلوب است. ازاينرو رفتار به خاطر وسيله و مقدمه بودن، داراي ارزش است (مصباح يزدي، 1388، ج1، ص262). بنابراين در رويکرد آيتالله مصباح يزدي در اين انديشه، هم رفتار اختياري مد نظر است و هم صفات نفساني. در اين نظريه مفاهيم ارزشهاي اخلاقي مبتني بر واقعيت است. ازاينرو اين مکتب ذيل نظرية «واقعگرا» قرار ميگيرد.
اهدافي که انسانها براي تحقق بخشيدن به آنها ميکوشند، يا تأمين نيازمنديهاي طبيعي و پاسخگويي به نيازها و غرايز است و يا تأمين منافع و مصالح اجتماعي و جلوگيري از فساد و هرجومرج. ولي هدف اصلي انسان رسيدن سعادت ابدي و کمال معنوي و روحي است (مصباح يزدي، 1388، ج1، ص262).
اما به نظر ميرسد هدف اخلاقي اين سند در رويکرد خوشبينانه، تأمين مصالح اجتماعي است. ولي در نظرية اخلاقي مکتب اسلام و آيتالله مصباح يزدي، هدف رسيدن به کمال نهايي است. مطلوبيت هدف به لحاظ حيثيت تکويني امر عيني و مستقل از ميل و رغبت و تشخيص افراد است. هرگاه فعل را در ارتباط با هدف مطلوب از جهت مطلوبيت آن در نظر بگيريم مفهوم «ارزش» از آن انتزاع ميشود، و هرگاه رابطة وجودي با نتيجة مترتب بر آن لحاظ شود مفهوم «وجوب» يا «شايستگي» و يا «بايستگي» از آن گرفته ميشود که در انديشة فلسفي از آن به «ضرورت بالقياس» تعبير ميگردد. به بيان ديگر بين فعل اختياري و نتايج مترتب بر آن رابطة سبب و مسببي برقرار است (مصباح يزدي، 1388، ج1، ص263-264).
آيتالله مصباح يزدي در تفکيک بين موضوعات حقوقي و اخلاقي به نکتهاي مهم اشاره کرده است که ميتواند به بحث حاضر و تمايز اخلاق «وظيفهگرا» و «کمالجو» نيز مربوط شود:
در چنين مواردي اگر رعايت اين قاعده فقط به انگيزة ترس از مجازات دولت باشد، ارزش اخلاقي ندارد، هرچند کاري است موافق با موازين حقوقي؛ و اگر به انگيزة هدف عاليتر که همان هدف اخلاقي است انجام گيرد، کاري اخلاقي هم خواهد بود (مصباح يزدي، 1388، ج1، ص267).
همچنين ديدگاه آيتالله مصباح يزدي بهنوعي ديدگاه غايتانگارانه و کمالجويانه به معناي خاص خود است. هدف از فعل اختياري قرب وجودي به کمال مطلق و خداوند متعال است. در اين نظرية مبتکرانه ميان فعل اختياري انسان و نتيجة آن رابطة ضرورت بالقياس برقرار است. ازاينرو ارزش اخلاقي فعل اختياري تابع تأثير آن فعل در رسيدن انسان به کمال حقيقي است. پس هر کاري بهاندازهاي که در رسيدن به کمال حقيقي انسان مؤثر باشد، ارزنده خواهد بود، و اگر تأثير منفي داشته باشد ارزش آن نيز منفي خواهد بود، و اگر هيچ ارزش مثبت يا منفي نداشته باشد خنثا خواهد بود (مصباح يزدي، 1384، ص326-327).
بنا بر نظرية اخلاقي مکتب اسلام دربارة ارزشهاي اخلاقي هوش مصنوعي، ميتوان اين نظريه را ارائه داد: «اگر چرخة سامانههاي هوش مصنوعي، از اختراع و کشف گرفته تا کاربرد و استفادة آن، در راستاي کمال انساني و تقرب به خداوند متعال باشد، اين کار ارزش اخلاقي دارد و بهعکس، اگر فناوري هوش مصنوعي موجب دوري انسان از کمال حقيقي خود شود، ضدارزش بهحساب ميآيد. در غير اين صورت، آن فناوري خنثا بوده و داراي ارزش و يا ضدارزش اخلاقي نيست».
بنابراين رويکرد سوم اخلاق هوش مصنوعي در ارتباط با انسان از منظر اخلاق اسلامي مشخص شد و معيار و بايدها و نبايدهاي پيشرفت و استفاده از اين فناوري در جهت اخلاق اسلامي و تقرب به خداوند ارزشگذاري ميشود.
نتيجهگيري
تحقيق حاضر به لحاظ مباني، سند اخلاق هوش مصنوعي «يونسکو» را بررسي کرد. با اين کاوش مشخص شد سند مذکور مبتني بر قراردادگرايي است. در اين مکتب هدفْ عمل به وظيفه و اصلاح رفتار است، نه کسب صفات کمالي. اما نظرية اخلاقي اسلام جزو مکاتب واقعگرايي بوده و در انديشة برخي علماي فضيلتمحور و از منظر آيتالله مصباح يزدي غايتگرا و کمالجوست. هدف نهايي در انديشة اين فيلسوف اخلاق، افزون بر تصحيح رفتار، ساختن شخص انسان و تقرب به خداوند متعال است.
ازاينرو پيشنهاد ميشود در تنظيم قراردادهاي بينالمللي، بررسي اسناد، اعلام نظرها و توافقها دقت لازم شود و سازگاري آن با مباني انديشة اسلامي لحاظ گردد. همچنانکه رهبر معظم انقلاب ميفرمايد، در بحث يادگيري فناوري، شاگرديکردن و علمآموزي اشکالي ندارد؛ اما نبايد به توصيه و برنامههاي آنها خوشبين بود و عمل کرد (حسيني خامنهاي، 1397).
افزون بر اين، پيشنهاد ميشود در نگاشت اسناد و تدوين قوانين و مقرارت ملي در حوزة هوش مصنوعي، متناسب با ارزشها و چارچوبهاي اخلاقي و آموزههاي اسلامي زمينهسازي شود.
- تگمارک، ماکس (1401ق). زندگی 0/3: انسان بودن در عصر هوش مصنوعی، ترجمة میثم لطفی، چ هشتم. تهران: فرهنگ نشر نو ـ آسیم.
- جمعی از نویسندگان (1402). نقد و تکمیل پیشنویس نهایی توصیهنامة دربارة اخلاق هوش مصنوعی. دفتر فقه معاصر. قم: مرکز مدیریت حوزههای علمیه.
- حسینی خامنهای، سیدعلی (1392). سخنرانی در دیدار با اعضای شورای عالی انقلاب فرهنگی. 19/9/1392.
- حسینی خامنهای، سیدعلی (1397). سخنرانی در دیدار با جمعی از مسئولان نظام، سفرای کشورهای اسلامی و قشرهای مختلف مردم. 3/11/1397.
- حسینی خامنهای، سیدعلی (1400). سخنرانی در دیدار با جمعی از نخبگان و استعدادهای برتر علمی کشور. 26/8/1400.
- خداقلیزاده، بهزاد و دیگران (1399). نقد و بررسی اولین پیشنویس توصیهنامة اخلاق هوش مصنوعی (یونسکو). تهران: پژوهشگاه فضای مجازی.
- خزاعی، زهرا (1389). اخلاق فضیلت. تهران: حکمت.
- ریچلز، جمیز (1389). فلسفة اخلاق. ترجمة آرش اخگری. تهران: حکمت.
- ژکس (1362). فلسفة اخلاق (حکمت عملی). ترجمة ابوالقاسم پورحسینی. چ دوم. تهران: امیرکبیر.
- طوسی، نصیرالدین (1413ق). اخلاق ناصری. تهران: علمیة اسلامیه.
- محسنی، حمید و دیگران (1402). بررسی توصیهنامة اخلاقی هوش مصنوعی یونسکو و تبیین نقاط ضعف و قوت آن. جمعی از نویسندگان، نقد و تکمیل پیشنویس نهایی توصیهنامة دربارة اخلاق هوش مصنوعی. دفتر فقه معاصر. قم: مرکز مدیریت حوزههای علمیه.
- محسنی، حمید و فولادی قلعه، کاظم (1401). سازگاری و ناسازگاری توصیهنامة اخلاق هوش مصنوعی یونسکو با نظریة اخلاقی اسلامی، اولین کنفرانس فضای سایبر. قم: دانشکده مهندسی دانشکدگان فارابی دانشگاه تهران.
- محیطی، حسن و احمدی، حسین (1400). فلسفة اخلاق: فرااخلاق و اخلاق هنجاری. قم: مؤسسة آموزشی و پژوهشی امام خمینی.
- مصباح یزدی، محمدتقی (1373). دروس فلسفة اخلاق. تهران: اطلاعات.
- مصباح یزدی، محمدتقی (1384). نقد و بررسی مکاتب اخلاقی. تحقیق و نگارش احمدحسین شریفی. چ سوم. قم: مؤسسة آموزشی و پژوهشی امام خمینی.
- مصباح یزدی، محمدتقی (1388). آموزش فلسفه. چ هشتم. تهران: سازمان تبلیغات اسلامی.
- مصباح یزدی، محمدتقی (1391). فلسفة اخلاق. تحقیق و نگارش احمدحسین شریفی. قم: مؤسسة آموزشی و پژوهشی امام خمینی.
- مصباح، مجتبی (1390). بنیاد اخلاق (روشی نو در آموزش فلسفة اخلاق). چ هفتم. قم: مؤسسة آموزشی و پژوهشی امام خمینی.
- نراقی، مهدی (1209ق). جامع السعادات. تحقیق محمد کلانتر. بیروت: مؤسسة الاعلمی للمطبوعات.
- هولمز، رابرت ال (1389). مبانی فلسفة اخلاق. ترجمة مسعود علیا. تهران: ققنوس.














