معرفت فلسفی، سال بیست و دوم، شماره دوم، پیاپی 86، زمستان 1403، صفحات 57-76

    واکاوی سند اخلاق هوش مصنوعی یونسکو از منظر مبانی فلسفة اخلاق آیت‌الله مصباح یزدی

    نوع مقاله: 
    پژوهشی
    نویسندگان:
    ✍️ حمید محسنی / دکترای حکمت متعالیه مؤسسة آموزشی و پژوهشی امام خمینی (ره) / h.mohseni1297@mailfa.com
    dor 20.1001.1.17354545.1403.22.2.4.4
    doi 10.22034/marefatfalsafi.2025.5000166
    چکیده: 
    یونسکو به‌خاطر نگرانی از به‌خطر افتادن ارزش‌های انسانی و اخلاقی از ناحیة هوش مصنوعی، به‌تازگی سندی با ‌عنوان «توصیه‌نامة اخلاق هوش مصنوعی» تنظیم و تصویب کرده است. در این سند برخی اهداف، ارزش‌ها و هنجارها آورده شده و از کشورهای عضو ـ که ایران نیز یکی از آنهاست ـ خواسته است مفاد این سند را در کشورهای خود اجرا کنند. نهادهای بین‌المللی سعی دارند با تصویب این‌گونه اسناد بالادستی، قوانین و ارزش‌های جوامع را با خود همراه سازند. مسئلة اصلی این پژوهش سازگاری و ناسازگاری مبانی ارزش‌های اخلاقی توصیه‌نامة مذکور با مبانی اخلاقی مکتب اسلام با تأکید بر اندیشة آیت‌الله مصباح یزدی است. به‌سبب آنکه ایشان در موضوع علم اخلاق و هدف اخلاقی، نظریة اختصاصی و کاملی دارد. پژوهش حاضر نخست با روش «توصیفی» نگرانی‌های اخلاقی از ناحیة فناوری هوش مصنوعی در سطح دنیا را تبیین نموده و سپس با روش «تحلیلی» و با تفکیک بین هوش مصنوعی ضعیف و قوی، اقسام اخلاق هوش مصنوعی و مقایسة اخلاق فضیلت و اخلاق عمل‌محور و تحلیل منشأ ارزش اخلاقی توصیه‌نامه‌‌ای را به دست آورده و در نهایت مشخص ساخته است که این توصیه‌نامه مبتنی بر قراردادگرایی بوده و به لحاظ موضوع و هدف، عمل‌محور است. اما نظریة اخلاقی اسلام جزو مکاتب واقع‌گرا بوده و در اندیشة برخی علمای فضیلت‌محور و از منظر آیت‌الله مصباح یزدی غایت‌گرایانه و کمال‌جوست. سرانجام راهکار ابداعی در اخلاق هوش مصنوعی این است که استفاده از این نوع ابزار نوین با معیار تقرب به خداوند ارزش‌گذاری ‌شود.
    Article data in English (انگلیسی)
    Title: 
    An Inquiry into the UNESCO’s Moral Document of Artificial Intelligence from the Perspective of Ayatollah Misbah Yazdi’s Foundations of Moral Philosophy
    Abstract: 
    Due to the concerns over the potential threat artificial intelligence poses to human and moral values, UNESCO has recently drafted and adopted a document entitled "Recommendation on the Ethics of Artificial Intelligence". This document outlines certain goals, values, and norms, and calls upon member states -including Iran- to implement its provisions within their respective countries. International organizations seek to align the laws and values of societies with their own by adopting such high-level policy documents. The main issue addressed in this study is the compatibility or incompatibility of the ethical value foundations presented in the aforementioned recommendation with the moral principles of the Islamic school of thought, with a particular emphasis on the ideas of Ayatollah Misbah Yazdi. This focus is due to his comprehensive and distinctive theory on moral philosophy and the objective of ethics. The present study first employs a descriptive method to explain the global ethical concerns arising from artificial intelligence technologies. It then adopts an analytical approach to examine various dimensions, including the distinction between weak and strong AI, the different types of AI ethics, the comparison between virtue ethics and action-based ethics, and the analysis of the source of moral values in the recommendation-based ethics. Ultimately, the study demonstrates that the Recommendation is grounded in contractualism and, in terms of both subject and objective, reflects an action-oriented ethics. However, the Islamic ethical theory falls under the realist schools of thought and, according to the virtue-oriented philosophy of some scholars, including Ayatollah Misbah Yazdi, it is teleological and perfectionist in nature. Ultimately, the proposed solution in AI ethics is to evaluate the use of such new technologies according to the criterion of drawing closer to God.
    References: 
    • Anderson, M. & Anderson, S. L. (2007). Machine Ethics: Creating an Ethical Intelligent Agent. AI Magazine. 28(4),15-26.
    • Boddington P. (2017). Towards a Code of Ethics for Artificial Intelligence. New York: Springer International Publishing.
    • Dafoe, A. (2018). AI Governance: A research agenda, Oxford: Oxford university press.
    • Jonas, T. & et al, (2023). The Global Governance of Artificial Intelligence: Next Steps for Empirical and Normative Research. Retrieved from https://arxiv.org/ftp/arxiv/papers.
    • Lucci, S. & Kopec, D. (2016). Artificial intelligence in the 21st century: A living introduction, mercury learning and information. ISBN-13: 978-1942270003, ISBN-10: 1942270003.
    • Russell, S. & Norvig, P. (2020). Artificial Intelligence: A Modern Approach. 4th Ed. USA: Prentice Hall.
    • UNESCO (2021). Recommendation on the ethics of artificial intelligence.. Retrieved from URL: https://en.unesco.org/artificial-intelligence/ethics.
    • Weiyu W. & Keng S. (2018). Artifcial Intelligence: A Study on Governance, Policies, and Regulations, MWAIS 2018 Proceedings.40. Retrieved from htp://aisel.aisnet.org/mwais2018/40.
    • https://hai.stanford.edu.
    • https://oecd.ai/en/wonk.
    • https://unesdoc.unesco.org.
    • https://www.techtarget.com.
    • https://futureoflife.org/resource/ai-policy.
    متن کامل مقاله: 


    مقدمه
    بسياري معتقدند: در آيندة نه‌چندان دور، ظهور «ابر هوش» (Superintelligence) امري اجتناب‌ناپذير است، هرچند در ‌زمان پيدايش اين رخداد اختلاف ‌نظر است (بادينگتون، 2017، ص2-3). ولي اين پديده مي‌تواند مخاطرات بسياري جدي براي بشريت داشته باشد. ازاين‌رو لازم است دانشمندان ملاحظاتي را براي خطرات احتمالي آينده از ناحية سامانه‌هاي پيشرفتة هوش مصنوعي در نظر بگيرند. افزون بر اين، همين هوش مصنوعي محدود («NAI» Narrow Artificial Intelligence) نيز مي‌تواند در زندگي بسياري از انسان‌ها تأثيرگذار باشد (راسل و نورويگ، 2020).
    اين فناوري‌ها در کنار مزاياي متعدد، خطرات و چالش‌هايي را نيز ايجاد مي‌کنند. بخشي از اين خطرات و چالش‌ها ممکن است ناشي از استفادة بدخواهانه از فناوري باشد؛ بخش مهم ديگري از تهديدات نيز ممکن است از ناحية خود فناوري هوش مصنوعي باشد. در مقالة پيش رو، اين نگراني‌ها، چالش‌ها و تهديدها بيشتر تبيين مي‌شود.
    ازاين‌رو «يونسکو» چارچوب‌هاي نظارت بين‌المللي و ملي را فراهم آورده است تا اين فناوري در نهايت، به نفع بشريت تمام شود. به همين خاطر سندي را با عنوان «توصيه‌‌نامة اخلاق هوش مصنوعي» (Recommendation on the ethics of artificial intelligence) در چهل و يکمين جلسة گردهمايي عمومي خود (در تاريخ 24 نوامبر 2021) تصويب کرده است (يونسكو، 2021).
    اين توصيه‌نامه يک مقدمه و 141 بند دارد و در آن برخي اهداف و ارزش‌هاي اخلاقي بيان شده است. از کشورهاي عضو ـ ازجمله ايران ـ نيز خواسته‌ شده است مفاد اين سند را در کشورهاي خود اجرا کنند. به اين مطلب در بند 135 اشاره شده است. هرچند مفاد برخي بندها اشاره دارد به اينکه در اجراي اين قوانين، قوانين داخلي کشورها نيز ملاحظه مي‌گردد، اما نهادهاي بين‌المللي مستقيم يا غيرمستقيم مي‌کوشند با تصويب اين‌گونه اسناد بالادستي، قوانين و ارزش‌هاي جوامع را با خود همراه سازند. همان‌گونه که پيش از متن نهايي در گزارشي آمده ـ ولي در متن اصلي به آن تصريح نشده است ـ يونسکو سعي دارد رهبري اخلاقي خود را با تنظيم استانداردهايي در حوزة علم و فناوري و هوش مصنوعي با رويکردي انسان‌محوري تقويت کند.
    (https://unesdoc.unesco.org/ark:/48223/pf0000379920.41C/73-p.2)
    همچنين در بند 4 سند آمده است: اين توصيه‌نامه دولت‌هاي عضو را به‌عنوان کاربران هوش مصنوعي براي توسعة چارچوب‌هاي قانوني و نظارتي در کل چرخة هوش مصنوعي مخاطب قرار داده، به آنها رهنمود اخلاقي مي‌دهد.
    بدين‌روي ضروري است مباني و ارزش‌هاي اخلاقي اين سند بين‌المللي از منظر مباني ارزش‌هاي اخلاقي مکتب اسلام بررسي گردد.
    در اين زمينه تحقيقاتي انجام‌ شده است. پيشينه‌اي که به‌صورت رسمي و مدون يافت شد، گزارش مختصري است با عنوان «نقد و بررسي اولين پيش‌نويس توصيه‌نامة اخلاق هوش مصنوعي (يونسکو)» که توسط بهزاد خداقليزاده و تحت‌نظر محمدمهدي نصر هرندي (مدير گروه مطالعات اخلاقي) در «پژوهشگاه مرکز ملي فضاي مجازي» چاپ‌ شده است. در اين اثر برخي نقدهاي جزئي به تک‌تک بندها و نيز نقدهاي کلي به اصل سند مطرح‌ شده است. اما در آن به مباني اخلاقي اين سند و سازگاري آن با نظرية اخلاقي اسلام اشاره نشده است. در اين گزارش به توصيه‌نامة يونسکو ايراد گرفته‌شده که چرا در سراسر متن، به ارزش‌ها و اصول، روشن‌تر و جزئي‌تر پرداخته نشده است. ازاين‌رو پيشنهاد داده است بند 91 به‌عنوان الگويي براي نگارش ساير بندها باشد (خداقليزاده و ديگران، 1399، ص15). اما درواقع محتواي اين بند با توجه به مفاد ساير بندها در جهت ترويج فرهنگ «برابري جنسيتي» است.
    در مقالة مزبور، حتي اين پيشنهاد مطرح شده است که در اين سند، تکثر ارزشي و فرهنگي گنجانده شود (خداقليزاده و ديگران، 1399، ص18). اگر منظور از پيشنهاد مزبور اين است که «يونسکو» به ارزش‌هاي فرهنگ اسلام نيز بها بدهد، اين نکته قابل ‌پذيرش است. اما به نظر مي‌رسد با اين پيشنهاد به‌نوعي تکثر ارزشي در حوزة اخلاق پذيرفته ‌شده است. پذيرش اين مطلب نيز منجر به نسبي‌گرايي و کثرت‌گرايي در ارزش‌هاي اخلاقي مي‌شود. ازاين‌رو لازمة اين امر عدم امکان ارزيابي و داوري بين مکاتب مختلف اخلاقي است و همة آنها به يک اندازه معتبر خواهند بود. بنابراين مکتب اخلاقي اسلام بر ساير نظام‌هاي اخلاقي برتري نخواهد داشت. نهايت امر آن است که نظام اخلاقي اسلام نظامي اخلاقي خواهد بود در عرض ساير نظام‌هاي اخلاقي. اما آيا بنا بر نگرش دين اسلام و انديشمندان مسلمان، حقيقت اين‌گونه است؟
    در اثر ديگري (متشکل از مجموعه مقالاتي که به‌زودي به‌طور رسمي منتشر خواهد شد) به تفصيل و مستقل اين سند تحت نظر «دفتر فقه معاصر حوزة علمية قم» مطالعه و نقد شده است (جمعي از نويسندگان، 1402).
    اما با بررسي اجمالي آن پژوهش‌ها مشخص ‌شد بيشتر تحقيقات مزبور با رويکرد فلسفة اخلاق و مقايسة آنها با نظرية اخلاقي مکتب اسلام به نقد مباني اخلاقي سند مزبور نپرداخته‌اند. البته در يکي از اين مقاله‌ها، نگارنده کوشيده است با رويکرد کلي و بنا بر آموزه‌هاي اخلاقي مکتب اسلام اين سند را نقد کند (محسني و ديگران، 1402). بيشتر تمرکز پژوهش مذکور در باب واقع‌گرايي و غيرواقع‌گرا بودن ارزش‌هاي سند بوده و به لوازم آنها نيز اشاره شده است. از يافته‌هاي تحقيق مزبور در پژوهش حاضر استفاده شده است. ولي بيشترين مطالب مقالة حاضر بر تفکيک بين مکتب‌ اخلاقي وظيفه‌گرا، فضيلت‌محور و کمال‌گرايانه با تأکيد بر انديشة آيت‌الله مصباح ‌يزدي است.
    همچنين نگارنده مقاله مختصري دربارة سازگاري يا ناسازگاري مباني اخلاقي اين سند با نظرية اخلاقي اسلام در همايش علمي ـ پژوهشي «نخستين کنفرانس فضاي سايبر» که توسط دانشکدة مهندسي دانشکدگان فارابي دانشگاه تهران در آبان سال 1401 برگزار شد، ارائه کرده است (محسني، و فولادي قلعه، 1401). مي‌توان مقالة حاضر را به‌نوعي تفصيل و تکميل دو مقالة مکتوب نگارنده دانست. افزون بر اين، پژوهش حاضر به برخي نگراني‌ها از ناحية هوش مصنوعي اشاره کرده و به‌ صورت اختصاصي با مباني فلسفي آيت‌الله مصباح يزدي، سند مزبور ‌را بررسي کرده است.
    بنابراين نوشتار حاضر سعي دارد با روش «توصيفي ـ تحليلي» اين سند بين‌المللي در حوزة اخلاق هوش مصنوعي را بررسي کند. بنابراين مسئلة اصلي اين مقاله سنجش و واکاوي مباني ارزشي سند اخلاق هوش مصنوعي «يونسکو» با نظرية فلسفة اخلاق آيت‌الله مصباح يزدي است.
    پژوهش حاضر نخست نگراني‌ها، اخلاق هوش مصنوعي و امکان اخلاقمندي ربات‌ها را تبيين کرده است. سپس مباني ارزش‌هاي اخلاقي سند مذکور را تحليل نموده و سرانجام نظرية «اخلاق هوش مصنوعي» بنا بر انديشة اين فيلسوف معاصر را ارائه داده است.
    1. نگراني‌ها از ناحية هوش مصنوعي
    از منظر برخي ظهور «ابرهوش» و يا در رويکرد ديگري «هوش عمومي مصنوعي» (Artificial General Intelligence) امري اجتناب‌ناپذير است. اما در اينکه چقدر طول مي‌کشد تا هوش مصنوعي در همة توانايي‌ها به سطح هوشمندي انساني برسد (هوش عمومي مصنوعي) و يا از توانايي‌هاي انساني بالاتر برود (ابرهوش)، در ميان انديشمندان اختلاف‌ نظر وجود دارد. ولي در ميان برخي محققان، نگراني‌هاي عميقي از اين ناحيه ناظر به نوع انسان‌ها ترسيم ‌شده است که برخي از اين نگراني‌ها خيال‌پردازانه و برخي آينده‌پژوهانه به‌حساب مي‌آيند (ر.ک. تگمارک، 1401). حتي انديشمندان از ناحية هوش مصنوعي محدود (Narrow AI) نيز نگراني‌هايي را حس مي‌کنند.
    ازاين‌رو اين مسئله بين انديشمندان، فلاسفه و مهندسان موضوع بحث قرار گرفته است که آيا توسعة هوش مصنوعي را ادامه دهند؟ زيرا توسعة بيش‌ از حد و بي‌هدف هوش مصنوعي برخي نگراني‌هاي اخلاقي، حقوقي و حکمراني در پي خواهد داشت. هرچند برخي افراد تنها به توسعه و پيشرفت جنبة مهندسي و فني هوش مصنوعي اهميت مي‌دهند، ولي تحقيق و پژوهش در حوزه‌هاي ديگري همچون مباحث اخلاقي و حکمراني نيز ضروري است؛ همان‌گونه که در سطح دنيا تحقيق و پژوهش در بُعد مباحث نظري، فلسفي، مسائل حکمراني و اخلاقي در حوزة هوش مصنوعي از اهميت فراواني برخوردار است.
    برخي رهبران فناوري و کارشناسان مطرح هوش مصنوعي (همانند ايلان ماسک، استيو وزنياک و ديگران) به خاطر برخي نگراني‌ها (در سال 2023) با امضاي نامه‌اي سرگشاده خواستار توقف موقت تحقيقات هوش مصنوعي شدند تا زمينة تدوين مقررات و قوانين فراهم شود. در همين سال، سام آلتمن مديرعامل «OpenAI» در مقابل کنگرة امريکا به نگراني‌ها از ناحية هوش مصنوعي اقرار کرد و خواستار نظارت بر هوش مصنوعي شد (https://www.techtarget.com/searchenterpriseai/definition/AI-governance).
    چند سال پيش نيز بيست‌هزار محقق نامه‌اي را امضا کرده‌اند و به سياست‌گذاران دربارة خطرات سلاح‌هاي خودمختار ـ که ممکن است از الگوريتم‌هايي براي حمله به اهداف خاص استفاده کنند ـ هشدار دادند (وي‌يوان و کنگ، 2018، ص3).
    افزون بر اين، در حال حاضر ابتکارات زيادي در زمينه‌هاي اخلاقي و اجتماعي و جنبه‌هاي حقوقي هوش مصنوعي در سراسر دنيا و در سازمان‌هاي بين‌المللي و مراکز دانشگاهي و تحقيقاتي در حال انجام است. براي نمونه، محققان هوش ماشيني مؤسسه «MIRI» هدف خود را «همسوسازي هوش مصنوعي پيشرفته با منافع انساني» عنوان کرده‌اند (https://intelligence.org).
    استنفورد «مؤسسة هوش مصنوعي انسان‌محور» را در سال 2019 تأسيس کرد که هدف اصلي آن پيشبرد تحقيقات، آموزش و سياست‌گذاري هوش مصنوعي براي بهبود شرايط انساني است (https://hai.stanford.edu).
    مؤسسة مهم ديگر «مؤسسة آيندة زندگي» (Future of Life Institute) است که در سال 2015 تأسيس شده است. مأموريت اين مؤسسه هدايت فناوري تحول‌آفرين به سمت سودمندي و دوري از خطرات بسيار شديد است. (https://futureoflife.org).
    از ديگر مراکز در اين حوزه، «رصدخانة سياست هوش مصنوعي» (OECD AI Policy Observatory) است. اين رصدخانه خود را يک مرکز جهاني براي سياست‌گذاري هوش مصنوعي معرفي کرده است. اين مرکز سعي دارد با تبيين برخي اصول به کشورها کمک کند تا خطرات هوش مصنوعي را مديريت کرده، از منافع آن بهره‌مند شوند (https://oecd.ai/en/wonk). يکي از کارهاي مهم اين رصدخانه آن است که بيش از 700 ابتکار سياست ملي هوش مصنوعي را از 60 کشور و منطقه ثبت کرده است (جوناس و ديگران، 2023، ص7-8).
    اما علت اين‌همه نگراني و توجه به جنبه‌هاي حقوقي، حکمراني و اخلاقي از ناحية فناوري هوش مصنوعي چيست؟ برخي از ابعاد چرايي نگراني‌هاي اخلاقي را در ادامه بيشتر تبيين مي‌کنيم.
    حجم وسيعي از داده‌ها ممکن است از ناحية هوش مصنوعي دستکاري شود. اين امر مي‌تواند در يادگيري ماشيني و نحوة ارتباط افراد با ديگران تأثير بگذارد؛ يعني هوش مصنوعي مي‌تواند در چگونگي فکر و استدلال فرد به‌عنوان شخص انساني تأثير بگذارد. اين دست ‌کارها همچنين مي‌تواند پيامدهايي را براي سازمان‌دهي بازار کار داشته باشد (بادينگتون، 2017، ص2-3). در همة موارد مذکور، ممکن است هوش مصنوعي در عملکردها و جهت‌گيري‌ها تأثير بگذارد. بنابراين نگران‌هاي مهم حقوقي و اخلاقي از ناحية هوش مصنوعي براي انسانيت وجود دارد.
    البته نگراني‌ها و خطرات بسياري از ناحية هوش مصنوعي و در حوزه‌هاي گوناگون قابل طرح است. برخي نگراني مي‌تواند جامعه‌شناختي و آينده‌پژوهانه باشد؛ همچون مسئلة فني و طغيان هوش مصنوعي و ناتواني براي مهار ابرهوش.
    همچنين برخي مسائل مهم حکمراني، سياسي و امنيتي بايد در نظر گرفته شود؛ همانند سوء استفادة قدرت‌هاي استکباري برخي دولت‌ها و سازمان‌هاي بين‌المللي از هوش مصنوعي براي مهار، نفوذ، حمله و يا استعمار ساير کشورها.
    برخي چالش‌هاي جدي در حوزه‌هاي معرفت‌شناختي، روان‌شناختي، انسان‌شناختي و دين‌شناختي را هم مي‌توان بررسي کرد؛ همچون تأثيراتي که هوش مصنوعي بر تغيير شناخت و رفتار انسان‌ها مي‌گذارد و به تبع آن، اراده، تصميم‌گيري، رفتار و فرهنگ افراد دستخوش تغييرات خواهد شد.
    اين مقاله بيشتر بر نگراني‌هاي اخلاقي از ناحية خود هوش مصنوعي تمرکز کرده است. ازاين‌رو به‌منظور پايش و هدايت اين فناوري ‌بايد يک سلسله بايدها و نبايدهاي اخلاقي مد نظر قرار گيرد.
    به‌سبب اين نگراني‌ها و خطرات، اخيراً «يونسکو» به فکر افتاده است چارچوب‌هاي نظارت بين‌المللي و ملي را فراهم آورد تا اين فناوري در نهايت، به نفع بشريت تمام شود. همان‌گونه که مقدمة سند اخلاقي «يونسکو» به اين مسئله تصريح مي‌کند، هرچند فناوري هوش مصنوعي مي‌تواند خدمت بزرگي براي بشريت به‌شمار آيد و ملت‌ها از آن بهره‌مند شوند، اما نگراني‌هاي اساسي و اخلاقي نيز وجود دارد. در کنار تهديدهاي زيستي و اقتصادي، تهديدهاي فرهنگي نيز ممکن است از اين ناحيه متوجه جوامع بشري گردد؛ يعني هوش مصنوعي ممکن است بر کرامت انساني،‌ حقوق بشر، آزادي، سياست و فرهنگ تأثيرگذار باشد. در بندهاي 13، 14، 15 و 16 آمده است: کرامت انساني، حقوق افراد، و آزادي هاي اساسي انساني بايد از ناحية هوش مصنوعي حفظ شود و آسيب نبيند.
    همچنين در بخش C بند 2 توصيه‌نامه به برخي مسائل جديد اخلاقي که از ناحية هوش مصنوعي شکل مي‌گيرد، اشاره شده است. براي نمونه، هوش مصنوعي در تصميم‌گيري، اشتغال و کار، تعامل اجتماعي، مراقب‌هاي بهداشتي، آموزش، رسانه، دسترسي به اطلاعات، شکاف ديجيتالي، داده‌هاي شخصي و حمايت از مصرف‌کننده، محيط‌زيست، مردم‌سالاري، حاکميت و قانون، امنيت، آزادي بيان، حريم خصوصي، نفي تبعيض و عدالت تأثير مي‌گذارد. افزون بر اين، ظرفيت هوش مصنوعي براي انجام برخي کارها ممکن است انحصار انجام برخي رفتارها در موجود زنده و حتي در انسان را به پايان برساند. ازاين‌رو در اين سند آمده است: امکان دارد در درازمدت سامانه‌هاي هوشمند خودآگاهي انسان، تعامل اجتماعي، فرهنگي و محيطي، استقلال، عامل بودن و حتي احساس خاص انسان‌ها از تجربه و عامل بودن را به چالش بکشد.
    همچنين در بند 5 و 12 آمده است: اين توصيه‌نامه با هدف ايجاد زمينه‌اي براي کارکرد سامانه‌هاي هوش مصنوعي به نفع بشريت، افراد جوامع و محيط‌زيست براي جلوگيري از آسيب، ارائه مي‌شود و در پي تشويق به استفادة صلح‌آميز از اين فناوري است. همچنين در بندهاي 25 و 27 براي جلوگيري از آسيب زدن هوش مصنوعي به انسان‌ها تدابيري انديشه شده است.
    بنابراين هوش مصنوعي مي‌تواند چالش‌هاي اخلاقي بسياري داشته باشد. افزون بر اين، حتي در اين سند ذکر شده است که به‌طور کلي هوش مصنوعي مي‌تواند در علوم انساني تأثير بگذارد.
    در بند 3 اين سند آمده است: «يونسکو» به مباحث آموزش،‌ علم،‌ فرهنگ و ارتباطات توجه ويژه دارد و در تبيين معناي «علم» در بخش B همين بند ‌آورده است: مراد از «علم» معناي گسترده‌اي است که از علوم طبيعي و پزشکي گرفته تا علوم اجتماعي و انساني را شامل مي‌شود. علت تأثير آن را هم اين‌گونه بيان مي‌کند: از طريق فناوري هوش مصنوعي، ظرفيت‌ها و رويکردهاي تحقيقاتي جديدي ايجاد مي‌شود و به‌ تبع آن، بر تصورات ما از درک و توضيح عملي تأثير مي‌گذارد. ازاين‌رو هوش مصنوعي مي‌تواند مبناي جديدي براي تصميم‌گيري ما ايجاد کند.
    به‌سبب همين تأثيرات، رهبر معظم انقلاب تأکيد کرده‌ است فرهنگ و دين اسلامي ايران ‌بايد در پيشرفت‌هاي علمي و فناوري، اصل قرار گيرد، نه اينکه فرع بر آنها باشد. همچنين در همه نوع پيشرفت (ازجمله پيشرفت در حوزة فناوري) مي‌بايست لوازم فرهنگي آن مد نظر مسؤلان قرار گيرد و پيوست فرهنگي داشته باشد (حسيني خامنه‌اي، 1392).
    افزون بر اين، به‌سبب اهميت فناوري و تأثير بر جنبه‌هاي گوناگون زندگي انسان، اخيراً رهبر حکيم انقلاب در حوزة هوش مصنوعي تأکيد کرد:
    پيشنهاد مي‌کنم يکي از مسائلي که مورد تکيه و توجه و تعميق واقع مي‌شود، مسئلة هوش مصنوعي باشد که در ادارة آيندة دنيا نقش خواهد داشت... بايد کاري کنيم که حداقل به ده کشور اول دنيا در اين مسئله برسيم (حسيني خامنه‌اي، 1400).
    در پي اين بيانات، برخي سازمان‌ها و نهادها، همچون «شوراي عالي انقلاب فرهنگي» و «معاونت علمي و فناوري رياست جمهوري» به تکاپو افتادند تا برنامه‌اي در حوزة پيشرفت هوش مصنوعي تدوين کنند. اما به نظر مي‌رسد در جامعة ما بيشتر جنبة فني ـ مهندسي هوش مصنوعي مد نظر قرار گرفته است.
    به‌ بيان ‌ديگر، به نظر مي‌رسد به‌طور کلي دو رويکرد بين مهندسان و فلاسفه و انديشمندان نسبت به مقولة «هوش مصنوعي» وجود دارد:
    يک رويکرد نگرش ابزاري صرف به سامانه‌هاي هوش مصنوعي است. در اين نگرش، جنبه‌هاي فني ـ مهندسي و استفادة ابزاري آن بيشتر مد نظر است.
    رويکرد ديگر، رويکرد بنيادين، فلسفي و تحليلي به مسئلة هوش مصنوعي است.
    در رويکرد اول نگرش خوش‌بينانه به اين فناوري وجود دارد و هرچند ممکن است به برخي مضرات و خطرات آن نيز اشاره شود، ولي بيشتر جنبه‌هاي فني ـ مهندسي و استفاده از منافع و کاربردهاي اين فناوري مد نظر است. اما در رويکرد دوم با اعتراف به اينکه هوش مصنوعي منافعي براي جوامع دارد، خطرات و نگراني‌هاي مهم اخلاقي نيز از ناحية فناوري هوش مصنوعي متوجه انسان‌هاست. افزون بر اين، در رويکرد بنيادين، فناوري هوش مصنوعي داراي مباني و مسائل فلسفي، حکمراني، فرهنگي و تمدني بوده، همچنين مي‌تواند در اين حوزه‌ها نيز تأثير بسزايي بگذارد. ازاين‌رو در اين پژوهش رويکرد دوم، يعني رويکرد تحليلي ـ فلسفي به فناوري هوش مصنوعي مد نظر قرار گرفته است تا بتوان به صورت اساسي اين موضوع را بررسي کرد.
    خلاصه اينکه به‌سبب اين تأثيرات مهم از ناحية هوش مصنوعي بر مباني علوم انساني ـ به‌طور عام ـ و بر ارزش‌هاي اخلاقي ـ به‌طور خاص ـ «يونسکو» درصدد برآمده است به‌عنوان بازوي فرهنگي سازمان ملل، ارزش‌هاي اخلاقي را در تعامل با هوش مصنوعي وضع کند.
    بنابراين مسئلة اصلي و اساسي پژوهش حاضر اين است که ارزش‌هاي اخلاقي سند مذکور مبتني بر کدام مکتب اخلاقي است؟ آيا اين مباني با اصول ارزش‌هاي اخلاقي مکتب اسلام و فيلسوفان مسلمان، همچون آيت‌الله مصباح يزدي سازگاري دارد؟
    2. مفهوم‌شناسي
    پيش از ورود به بررسي سند و مسائل مزبور، شايسته است به اجمال اصطلاح «اخلاق هوش مصنوعي» (Ethics of Artificial Intelligence) و رويکردهاي مختلف در اين زمينه تبيين شود. هرچند اصطلاح «اخلاق هوش مصنوعي» به‌تازگي مطرح شده، اما واژة «اخلاق» در ارتباط با انسان از ديرباز در ميان انديشمندان مسلمان و غربي محل بحث قرار گرفته است. ازاين‌رو شايسته است براي تبيين مفهوم «اخلاق هوش مصنوعي»، نخست تبيين مختصري دربارة مفهوم «اخلاق» ارائه دهيم:
    1-2. اخلاق
    «اخلاق» جمع «خُلق» است. علماي اخلاق اسلامي تعريف‌هاي متنوعي براي «خُلق» ارائه داده‌اند. در تعريفي،‌ «خُلق» ملکه‌اي است که نفس به مقتضاي آن، به‌سادگي فعلي را بدون احتياج به فکر کردن و تأمل ‌نمودن انجام مي‌دهد. فرق «حال» با «ملکه» آن است که «حال» کيفيت نفساني است که به‌سرعت از بين مي‌رود، ولي «ملکه» کيفيتي نفساني است که به‌سختي از بين مي‌رود (طوسي، 1413ق، ص63).
    همان‌گونه که صاحبان صنعت و حرفه به‌سهولت کار خود را انجام مي‌دهند، صاحبان ملکات نفساني نيکو و زشت نيز به‌سهولت کار خوب يا بد انجام مي‌دهند. افزون بر اين، در تعريف «علم اخلاق» در کتاب فلسفة اخلاق آيت‌الله مصباح يزدي آمده است:
    مي‌توان آن را به دانشي تعريف کرد که از انواع صفات خوب و بد و چگونگي اکتساب صفات خوب و زدودن صفات بد بحث مي‌کند. موضوع علم اخلاق عبارت است از: صفات خوب و بد از آن ‌جهت که مرتبط با افعال اختياري انسان بوده، براي او قابل اکتساب يا اجتناب‌اند (مصباح يزدي، 1391، ص 25).
    ازاين‌رو بنا بر نگرش آيت‌الله مصباح يزدي، اخلاق تنها ناظر به حوزة صفات دروني انسان نيست، بلکه رفتار اختياري را هم که منجر به کسب اين صفات مي‌شود، دربر مي‌گيرد. اما در سوي ديگر، به باور برخي انديشمندان علم اخلاق مغرب‌زمين (نظير ژکس) ارزش‌هاي اخلاقي تنها ناظر به رفتار افراد است. ازاين‌رو آنها علم اخلاق را بيان‌کنندة ارزش و لزوم رفتارها معرفي مي‌کنند (ژکس، 1362، ص9).
    همچنين از منظر مکاتب غيرواقع‌گرا و قراردادگرا ـ که در ادامه ديدگاه آنها تبيين خواهد شد ـ تمرکز اصلي بر روي رفتار انسان است. در اين صورت، از منظر آنها هدف اصلي اخلاقي تصحيح خود رفتار است و وراي آن هدف ديگري را دنبال نمي‌کنند (مصباح، 1390، ص26).
    اما در توصيه‌نامة «يونسکو» تعريف دقيق و روشني از «اخلاق» ارائه نشده است. البته مي‌توان به‌طور کلي بيان کرد: هدف اين توصيه از تأکيد بر ارزش‌هاي اخلاقي، اصلاح صفات دورني انساني نيست. دليل اين ادعا به مباني هستي‌شناختي، انسان‌شناختي و ارزش شناختي و روح سند مذکور برمي‌گردد ـ که در ادامه، تبيين خواهد شد.
    افزون بر اين، برخي مفاد اين توصيه، همچون بند اول تصريح مي‌کند که هدف اخلاقي اين سند اصلاح برخورد و رفتار مسئولانه است و در کل سند، به صفات دروني انساني اشاره‌اي نشده است. بنابراين مشخص مي‌شود که تمرکز اصلي اين سند بر تصحيح رفتار انسان‌هاست.
    هرچند اين دغدغه در جاي خود ارزشمند است، اما اگر تنها تصحيح رفتار بدون توجه به باطن انسان معيار باشد، با مباني اخلاق اسلامي فاصله دارد.
    اما در انديشة علامه مصباح يزدي، هم رفتار انساني از اهميت خاصي برخوردار است و هم صفات نفساني. وي افزون بر رويکرد برخي انديشمندان مسلمان ـ که تنها به صفات اخلاقي توجه دارند ـ بر موضوع رفتار نيز تأکيد دارد. از منظر ايشان، رفتار اخلاقي است که موضوع قضية اخلاقي قرار مي‌گيرد (مصباح يزدي، 1384، ص325ـ326).
    بنابراين در مباحث اخلاق، هم صفات اکتسابي بايد مد نظر قرار گيرد و هم رفتارهاي اختياري؛ زيرا هم صفات دروني (مثل سخاوت، بخل، تواضع و کبر) متصف به‌ خوبي و بدي و متعلق بايد و نبايد قرار مي‌گيرد و هم رفتارهاي بيروني انسان نيز قابل‌ تحسين و تقبيح است و متعلق بايد و نبايد قرار مي‌گيرد. همچنين بيشتر صفات و ملکات اخلاقي از تکرار اعمال و رفتار افراد به وجود مي‌آيد.
    در نتيحه، تفاوت اساسي اين دو رويکرد اين است که اگر صفات دروني و ملکات انساني مورد توجه قرار گيرد، شما مي‌توانيد حالات دروني (مثل نيت، اخلاص، ريا و از اين قبيل) را ارزش‌گذاري کنيد. ولي اگر هدف و معيار ارزش اخلاقي تنها تصحيح رفتار انسان باشد، ديگر نمي‌توانيد حالات دروني انسان را که ظهور بيروني ندارد، ارزيابي کنيد. بنا بر اين نگرش ـ براي نمونه اگر کسي با نيت خالص و الهي براي خدمت به مردم مدرسه‌اي بسازد و ديگري با نيت ناخالص و يا شيطاني و يا تنها براي معروف‌شدن مدرسه‌اي بسازد، هر دو رفتار به يک ميزان ارزشمند است؛ زيرا هر دوي آنها رفتار صحيح را ـ که همان مدرسه‌سازي است ـ به‌درستي انجام داده‌اند، اما با انگيزه و نيت متفاوت که در اين رويکرد قابل سنجش نيست.
    افزون بر اين، ناظر به مسئلة پژوهش حاضر، پيامد مهم ديگر اين دو رويکرد مشخص مي‌شود. اگر تنها ملاک رفتار باشد، مي‌توان رفتار هوش مصنوعي را ارزش‌گذاري اخلاق کرد و حتي با رفتار و موجود مختاري مانند انسان مقايسه و ارزيابي کرد. فرض کنيد يک ربات خدمتکار يا همدم طراحي شده است که از سالمند و يا کودک مراقبت مي‌کند. حال اگر روزي رفتاري انجام داد و به سالمند و کودک آسيبي زد، بنا بر رفتارگرايي مي‌توان رفتار اين ربات را ارزش‌گذاري اخلاقي کرد.
    ولي اگر افزون بر رفتار، در انجام افعال، صفات دروني هم مطرح باشد، مسئله به اين سادگي نيست؛ زيرا بايد بررسي کرد که آيا تصميم‌گيري ربات بر انجام اين فعل ناشي از آگاهي، اراده، و اختيار است؟ يا اينکه ربات‌ها و هوش مصنوعي حالات دروني (مثل آگاهي و اراده) همانند انسان ندارند تا آن فعل را «اختياري / اخلاقي» بدانيم، بلکه اين نوع تصميم‌گيري سامانة هوشمند ممکن است ناشي از مشکلات سخت‌افزاري و يا نرم‌افزاي تعبيه‌شده در آن باشد؟
    2-2. اخلاق هوش مصنوعي
    آيا منظور «از اخلاق هوش مصنوعي» اين است که خود ماشين‌هاي هوشمند رفتار اخلاقي داشته باشند؟ يا اينکه منظور اين است که انسان‌ها در استفاده از هوش مصنوعي، ارزش‌هاي اخلاقي را مراعات کنند؟ به‌طور کلي، مي‌توان گفت: بنا بر مباني هستي‌شناختي و انسان‌شناختي، رويکردهاي متفاوتي در اين مسئله مي‌تواند وجود داشته باشد.
    3. رويکردهاي مختلف در اخلاق هوش مصنوعي
    1-3. رويکرد اول
    در يک رويکرد، خود هوش مصنوعي و ربات‌ها مخاطب بايد و نبايد اخلاقي قرار مي‌گيرد. «قوانين سه‌گانة رباتيک» که نخستين بار در سال 1942 توسط ايزاک آسيموف براي جلوگيري از آسيب‌رساني ربات‌ها به انسان ارائه شد، از اين قسم است (ر.ك. راسل و نورويگ، 2020).
    2-3. رويکرد دوم
    در رويکرد ديگر، اخلاق هوش مصنوعي بخشي از اخلاق ماشين است؛ يعني هدف از اخلاق ماشين اين است که مي‌بايست ماشيني ايجاد شود که دست‌کم از يک اصل اخلاقي مطلوب و يا مجموعه‌اي از اصول اخلاقي پيروي کند. (اندروسن و اندروسن، 2007، ص15).
    مقصود از «پيروي هوش مصنوعي از اصل اخلاقي» داراي ابهام است. آيا منظور اين است که ربات به اختيار خودش يک اصل اخلاقي را دنبال کند؟ اگر اين نگرش مراد باشد، همان رويکرد اول خواهد بود. ولي اگر منظور اين است که سامانه‌هاي هوشمند طوري برنامه‌ريزي شود که رفتار اخلاقي متناسب با رفتار انسان از آنها سر بزند، اين را مي‌توان رويکرد ديگري غير از رويکرد اول به حساب آورد.
    به‌عبارت واضح‌تر، در رويکرد دوم منظور از «اخلاق هوش مصنوعي» اين است که چگونه مي‌توان رمزهاي (کدهاي) اخلاقي را در سامانه‌‌هاي هوشمند تدوين کرد تا از خطرات احتمالي هوش مصنوعي عليه انسان‌ها جلوگيري شود. (بادينگتون،‌ 2017، ص1) البته خطرات از ناحية هوش مصنوعي منحصر به انسان‌ها نيست، بلکه مي‌تواند به حيوانات و محيط‌زيست نيز آسيب برساند.
    به‌هرحال، در اين رويکرد ديگر خود ماشين‌هاي هوشمند متصف به بايد و نبايد و يا تصميم‌گيري اخلاقي نمي‌شوند. بلکه آنها به‌نوعي از جبر اخلاقي برخوردارند؛ زيرا آنها به‌مثابة يک ماشين حساب مي‌شوند؛ البته ماشين هوشمندي که برنامه‌هاي اخلاقي داده‌شده به آنها را به‌خوبي پياده‌سازي مي‌کند.
    3-3. رويکرد سوم
    اما در رويکرد متفاوت‌تر و عام‌تر از دو رويکرد پيشين، اخلاق هوش مصنوعي ناظر به چگونگي استفادة انسان‌ها از اين ابزار و فناوري نوين است؛ يعني انسان‌ها به طور مستقل مخاطب اصلي بايدها و نبايدهاي اخلاقي هستند. در اين رويکرد انسان‌ها مسئول رفتار خويش‌اند و همة نقش‌آفرينان حوزة هوش مصنوعي ـ اعم از دولت‌ها، سازمان‌ها، مهندسان و برنامه‌نويسان، کاربران و استفاده‌کنندگان ـ را دربر مي‌گيرد. ازاين‌رو همة اين نقش‌آفرينان موظف‌اند در جهت ارزش‌هاي اخلاقي اين فناوري را توسعه دهند يا از آن استفاده کنند.
    تا اينجا به اختصار سه رويکرد دربارة اخلاق هوش مصنوعي تبيين شد، اما در ادامه، بيشتر به تحليل و بررسي اين سه رويکرد مي‌پردازيم. در تحليل اين سه رويکرد لازم است اين مسائل بررسي شود: آيا خود ربات‌ها مي‌توانند به بايد و نبايد اخلاقي متصف شوند؟ (تحليل رويکرد اول) آيا بنا بر رويکرد دوم از منظر اخلاق اسلامي، مي‌توان برنامه‌ريزي را براي سامانه‌هاي هوشمند ارائه کرد؟ (تحليل رويکرد دوم) سند اخلاق هوش مصنوعي ناظر به کدام‌يک از اين سه رويکرد نوشته شده است؟ و از منظر مباني اخلاق اسلامي بنا بر رويکرد سوم چه نظريه‌اي را مي‌توان ارائه داد؟ (تحليل رويکرد سوم)
    پاسخ به اين مسائل و اتخاذ رويکرد مختار از بين رويکردهاي سه‌گانه، در گرو آن است که بررسي شود محققان و انديشمندان چه نگرشي به هويت هوش مصنوعي دارند.
    4. هوش مصنوعي قوي و ضعيف
    بنا بر رويکرد اول خود سامانه‌هاي هوشمند به بايد و نبايد اخلاقي متصف مي‌شدند. تحليل و نقد اين رويکرد و اتخاذ رويکرد مناسب در اين‌باره نيازمند آن است که دو اصطلاح رايج در حوزة هوش مصنوعي توضيح داده شود. به نظر مي‌رسد اين نوع رويکردهاي متفاوت در حوزة اخلاق هوش مصنوعي، متأثر از دو مکتب فکري مختلف به مقولة هوش مصنوعي باشد:
    يک مکتب «رويکرد هوش مصنوعي ضعيف» (Weak AI) است. اين مکتب فکري با مؤسسه فناوري ماساچوست مرتبط است. در اين رويکرد تنها معيار اين است که برنامة به‌کاررفته در هوش مصنوعي(AI) به‌درستي و رضايتمندانه انجام شود. اما «رويکرد هوش مصنوعي قوي» (Strong AI) مکتب فکري ديگري است که با رويکرد دانشگاه کارنگي ملون به هوش مصنوعي ظهور پيدا کرده است. در اين مکتب رفتار هوش مصنوعي با رفتار انسان سنجيده مي‌شود. اين در حالي است ‌که در رويکرد ضعيف با عملکرد سامانه سنجيده مي‌شد. در رويکرد قوي به دنبال شبيه‌سازي سامانة ادراکي انسان در هوش مصنوعي هستند. افزون بر اين، طرفداران هوش مصنوعي قوي بر اين باورند که به سبب دستيابي به اکتشافات، الگوريتم‌ها و دانش برنامه‌هاي نوين، هوش مصنوعي مي‌تواند داراي حس، هوشياري و هوش باشد (لوسي و کوپس، 2016، ص12).
    به‌طور کلي در رويکرد قوي، رفتار ماشين بر اساس شباهت با عملکرد انسان سنجيده مي‌شود. اما در رويکرد ضعيف مهندس تنها انتظار رفتار موفقيت‌آميز از سامانة هوشمند طراحي‌شده را دارد.
    با اين وصف، در توصيه‌نامة اخلاقي هوش مصنوعي «يونسکو» به‌صراحت به دو رويکرد قوي و ضعيف در زمينة هوش مصنوعي اشاره نشده، اگرچه در برخي بندهاي سند از آسيب‌ها و خطرات پيشرفت ماشين‌هاي هوشمند در آينده اعلام نگراني شده است. ازاين‌رو به نظر مي‌رسد برخي نگراني‌ها ناظر به رويکرد هوش مصنوعي قوي در اين فناوري وجود دارد. براي نمونه در انتهاي بخش C بند 2 توصيه‌نامه ـ که به برخي نگراني‌هاي اخلاقي از ناحية هوش مصنوعي اشاره شده ـ آمده است که ظرفيت هوش مصنوعي براي انجام برخي کارها، انحصار انجام برخي رفتارها در موجود زنده و حتي در انسان را به پايان مي‌رساند. ازاين‌رو در اين سند آمده: ممکن است در درازمدت سامانه‌هاي هوشمند خودآگاهي انسان، تعامل اجتماعي و فرهنگي و محيطي، استقلال، عامل بودن و حتي احساس خاص انسان‌ها از تجربه و عامل بودن را به چالش بکشد.
    بنابراين در اسناد بين‌المللي اگرچه بيشتر بر هوش مصنوعي ضعيف تأکيد شده، ولي در عبارت مزبور آمده است: عامليت انسان و يا خودآگاهي انسان و يا احساس انسان‌ بودن ممکن است در آينده دچار چالش گردد. زماني اين امور به چالش کشيده مي‌شود که هوش مصنوعي نيز داراي اين ويژگي‌ها شود. به بيان ديگر، با پيشرفت هوش مصنوعي ممکن است اين فناوري هوشمند به حوزه‌هاي اختصاصي انساني ورود پيدا کند و همانند انسان ويژگي‌هايي نظير احساسات و خودآگاهي داشته باشد. بدين‌سان در اين سند با بيان اين دغدغه‌ها و نگراني‌ها به‌نوعي به امکان تحقق هوش مصنوعي قوي در آينده اشاره شده است.
    به‌هرحال، آيا بنا بر مباني علم‌النفس اسلامي، ربات‌ها مي‌توانند به بايد و نبايد اخلاقي متصف شوند و يا همانند انسان تصميم‌هاي اخلاقي بگيرند؟ انجام رفتار اخلاقي متوقف بر آگاهي و درک معناي «خوب» و «بد» و مبتني بر اختيار و اراده است. اراده نيز مستلزم داشتن ذهن و يا نفس است. ازاين‌رو بنا بر مباني علم‌النفس اسلامي، هوش مصنوعي (قوي) زماني مي‌تواند رفتاري اخلاقي از خود نشان دهد که داراي ذهن و يا نفس خودآگاه باشد. هرچند بررسي اين مسئله و امکان تحقق هوش مصنوعي قوي نيازمند يک تحقيق مستقل است و پرداختن به آن در حوصلة اين مقاله نيست، ولي در ادامه به اختصار اين مسئله را بررسي مي‌کنيم:
    هرچند کارکردهاي پيچيده‌اي از سامانة هوشمند بروز مي‌کند و در برخي موارد (همچون محاسبه، پردازش اطلاعات، حافظه و يادگيري) ممکن است از انسان‌هاي معمولي قوي‌تر باشد، ولي نمي‌توان آن را به‌مثابة يک «ساختار واحد زيستي» و به‌عنوان يک «هويت واحد، زنده و خود آگاه» به‌حساب آورد، بلکه هوش مصنوعي به لحاظ وجودي، يک ماشين و ربات مرکب از اجزاست که يک سلسله کارکردهاي هماهنگ انجام مي‌دهد. ازاين‌رو بنا بر مباني علم‌النفس صدرايي شيئي همچون هوش مصنوعي به لحاظ وجودي، هويت واحد ندارد. پس نمي‌تواند ذهن و نفس داشته باشد.
    افزون بر اين، به نظر مي‌رسد در توصيه‌نامة اخلاقي «يونسکو» با تعريفي که از «هوش مصنوعي» ارائه ‌شده، رويکردي ضعيف اتخاذ شده است. همان‌گونه که در بند 2،‌ به‌ويژه بخش A تأکيد مي‌کند، نگاه اين سند به سامانه‌هاي هوش مصنوعي به‌مثابة فناوري‌هاي داراي پردازش اطلاعات، به شيوه‌اي شبيه رفتار هوشمند است.
    همچنين در بند 26 اشاره مي‌کند: هوش مصنوعي نبايد تصميم‌گير نهايي در مسائل مهمي همچون مرگ و زندگي باشد، بلکه اختيار آن بايد به دست انسان‌ها باشد. اين بدان معناست که هوش مصنوعي در انجام افعال خود اختيار تام ندارد. اين مطلب ناظر به رويکرد هوش مصنوعي ضعيف است؛ زيرا اگر منظور هوش مصنوعي قوي بود خودش مي‌توانست به‌تنهايي تشخيص دهد و تصميم بگيرد و مسئوليت رفتار خويش را نيز بپذيرد.
    افزون بر اين، مراد از «اخلاق هوش مصنوعي» در اين توصيه‌نامه متمرکز بر ارتباط با رفتار انسان‌ها و بازيگران هوش مصنوعي است، نه اينکه خود سامانه‌‌هاي هوشمند را مخاطب بايد و نبايد اخلاقي قرار دهد.
    5. تحليل سه رويکرد در اخلاق هوش مصنوعي
    بنابراين رويکرد اول به امکان اخلاقمندي خود ربات‌ها همانند انسان، بنا بر مباني علم‌النفس اسلامي منتفي است. به‌ بيان ‌ديگر، خود هوش مصنوعي نمي‌تواند به بايدها و نبايدهاي اخلاقي متصف شود.
    اما رويکرد دوم امکان اخلاقمندي ربات و هوش مصنوعي به لحاظ مهندسي و برنامه‌نويسي، نه اينکه امکان‌پذير باشد، بلکه ضروري است. همان‌گونه که در مقدمه و برخي بندهاي توصيه‌نامة «يونسکو» آمده است، بايد هوش مصنوعي را به سمت ارزش‌هاي اخلاقي هدايت کرد. در اين زمينه بعضي دانشگاه‌ها، مراکز تحقيقاتي و مؤسسات در تلاش‌اند تا براي کاهش خطرات هوش مصنوعي، رمزهاي اخلاقي را در آنها تعبيه کنند (بادينگتون، 2017، ص3).
    البته آنها مبتني بر مباني و ارزش‌هاي اخلاقي خود سعي دارند تا با رمزنويسي، هوش مصنوعي را اخلاقمند کنند. اما جامعة اسلامي مباني و ارزش‌هاي اخلاقي خاص خود را دارد. بنابراين با توجه به رويکرد دوم در امکان اخلاقمندي ماشين‌هاي هوشمند در جامعة اسلامي مي‌توان اين نظر را مطرح کرد: «مي‌توان با به کاربردن الگوريتم‌ها و با ارائة داده‌ها و برنامه‌هايي مبتني بر ارزش‌هاي اخلاقي اسلامي، به گونه‌اي رفتار ماشين را جهت‌دهي کرد. همچنين از سامانه‌‌هاي هوشمند در ترويج ارزش‌هاي اخلاقي اسلامي و مقابله با مطالب ضداخلاقي استفاده نمود».
    لازم به ذکر است به‌سبب آنکه حوزة اخلاق هوش مصنوعي يک حوزة ميان‌رشته‌اي است، اين نظر زماني محقق خواهد شد که همکاري و هم‌افزايي بين مهندسان و برنامه‌نويسان هوش مصنوعي با انديشمندان حوزة علوم انساني و علوم ديني و فلاسفه به صورت جدي و اساسي شکل بگيرد.
    تا اينجا در تبيين مفهوم «اخلاق هوش مصنوعي» سه رويکرد ارائه شد و مشخص گرديد بنا بر مباني اسلامي، رويکرد اول در امکان اخلاقمندي خود سامانه‌هاي هوشمند و ربات‌ها منتفي است. اما اخلاقمندي هوش مصنوعي بنا بر رويکرد دوم، نه‌تنها امکان‌پذير است، بلکه ضروري هم هست؛ چنان‌که در سطح دنيا اين مسئله مورد اهتمام قرار گرفته است. ازاين‌رو در جامعة اسلامي نيز بايد با همکاري مهندسان و انديشمندان حوزة اخلاق اسلامي اين امر محقق شود.
    اما رويکرد سوم در اخلاق هوش مصنوعي به بايدها و نبايدهاي استفادة انسان از اين فناوري برمي‌گردد. اين رويکرد در بخش پيش رو و در ضمن تحليل منشأ ارزش اخلاقي سند «يونسکو» بررسي و تبيين خواهد شد. در انتها بنا بر مباني فلسفة اخلاق آيت‌الله مصباح يزدي، نظريه‌اي دربارة اخلاق هوش مصنوعي در ارتباط با رفتار انسان ارائه خواهد گرديد.
    6. تحليل منشأ ارزش اخلاقي توصيه‌نامه و سازگاري آن با نظرية اخلاقي اسلام
    منشأ ارزش و لزوم اخلاقي به‌کاربرده شده در اين توصيه‌نامه با کدام‌يک از مکاتب اخلاقي سازگاري دارد؟ به نظر مي‌رسد منشأ ارزش و هنجارهايي که در اين توصيه‌نامه به آنها اشاره مي‌شود از نوع قراردادگرايي باشد. اين مطلب با تأمل در برخي مفاد قابل ‌اثبات است. در مقدمة سند، حقوق بشر و آزادي را به تأييد و پذيرش مردم مبتني کرده است. همچنين در بند 6 بيان نموده است: «هدف اين توصيه‌نامه رسيدن به يک ابزار هنجاري پذيرفته‌شده در سطح جهاني است». در نتيجه، اين مفاهيم را ملاک هنجارهاي اخلاقي معرفي مي‌کند و بر اساس آنها «بايدها و نبايدهاي اخلاقي» را در حوزة هوش مصنوعي معين مي‌سازد. عبارت‌هاي مذکور ما را به اين سمت سوق مي‌دهد که بپذيريم مباني به‌کاررفته در اين متن، برخاسته از مکاتب غيرواقع‌گرايي و از نوع قراردادگرايي است.
    اما اشکال قراردادگرايي چيست؟ (نگارنده در تحقيق ديگري به‌ تفصيل اين مطلب را تبيين کرده ‌است. ر.ک. محسني و ديگران، 1402، ص194-204). اشکال اصلي آن است که مکتب «قراردادگرايي» ذيل مکاتب غيرواقع‌گرا مي‌گنجد (ر.ک. مصباح، 1390؛ مصباح يزدي، 1384). ازاين‌رو نسبيت‌گرايي و کثرت‌گرايي از لوازم مهم قراردادگرايي است (ر.ک. مصباح، 1390؛ مصباح يزدي، 1384).
    با اين ‌وجود، مفاد بندهاي 131 تا 134 که در حوزة نظارت و ارزيابي تأثيرات اخلاقي فناوري‌هاي هوش مصنوعي است و سعي دارد روشي را براي اين ارزيابي ارائه دهد، دچار مشکل اساسي مي‌شود؛ زيرا بنا بر کثرت‌گرايي، ديگر نمي‌توان روش واحدي را براي بررسي تأثيرات اخلاقي در کشورهاي عضو ارائه داد.
    ممکن است در پاسخ اين اشکال که گفته شود: جوامع بر يک اصل کلي و مشترک اجماع کرده‌اند و آن اصل کلي نظير نفي ضرر هوش مصنوعي مي‌تواند ملاک ارزيابي باشد.
    در نقد اين پاسخ مي‌توان گفت: اين اصل ثابت است يا در جوامع مختلف متفاوت است؟ اگر اين اصل ثابت و مطلق باشد به نوعي ناقض ديدگاه کثرت‌گرايي خواهد بود و اگر در جوامع مختلف فرق کند باز نمي‌تواند ملاک واحدي براي ارزيابي همة جوامع باشد.
    7. بررسي موضوع و هدف علم اخلاق در مکاتب اخلاقي
    اما مسئلة اصلي که در اين کاوش به آن مي‌پردازيم، تبيين موضوع و هدف علم اخلاق است. در فلسفة اخلاق ديدگاه‌هاي متفاوتي دربارة موضوع و هدف اخلاقي وجود دارد. با تبيين برخي ديدگاه‌ها دربارة موضوع و هدف علم اخلاق، رويکرد اين توصيه در اين زمينه نيز روشن مي‌شود.
    اگر بخواهيم دربارة چيزي بينديشم فرق مي‌کند که با چه سؤال‌هايي آغاز کنيم. پرسش‌هاي اساسي ارسطو در اخلاق نيکوماخوس دربارة شخصيت است. ارسطو با اين پرسش شروع مي‌کند: «خير بشري چيست؟» و پاسخ او اين است: خير بشري فعاليتي از روح آدمي است که مطابق با فضيلت باشد. بنابراين براي فهم اخلاق بايد فهميد که چه چيزهايي شخص را بافضليت مي‌کند (ريچلز، 1389، ص239).
    علاوه بر رفتار، ما دربارة اشخاص هم داوري مي‌کنيم. اخلاق مبتني بر فضيلت عمدتاً با اشخاص سروکار دارد؛ اما اخلاق مبتني بر فضيلت به راهنمايي کردار هم مي‌پردازد. حکم تعيين‌کننده در اخلاق مبتني بر کردار اين است که «کاري را درست انجام بده». حکم تعيين‌کننده در اخلاق فضيلت‌محور چيزي نيست جز اينکه «شخص خوبي باشد» (هولمز، 1389، ص78).
    همان‌گونه که گذشت، ارزش‌هاي اخلاقي در اين سند مبتني بر نظرية «قراردادگرايي» است. نظرية «قراردادگرايي» ذيل ديدگاه «وظيفه‌گرايي اخلاقي» (Ethics of Duty) مي‌گنجد. در اين ديدگاه معيار ارزيابي اخلاقي عمل به تکليف و وظيفه است (محيطي و احمدي، 1400، ص162). نظرية «اخلاق وظيفه» ديدگاهي است که از سوي برخي از انديشمندان علم اخلاق مغرب‌زمين مطرح ‌شده است. ارزش‌هاي اخلاقي را صرفاً ناظر به رفتارها مي‌دانند و علم اخلاق را بيان‌کنندة ارزش و لزوم رفتارها معرفي مي‌کنند (ژکس، 1362، ص9). هدف اصلي اخلاقي را نيز تصحيح خود رفتار دانسته،‌ وراي آن هدف ديگري را نشان نمي‌دهند (مصباح، 1390، ص26).
    اما در ديدگاه «اخلاق فضيلت» (Ethics of Virtue) صفات دروني نفساني متصف به ارزش‌هاي اخلاقي مي‌شود و علم اخلاق عهده‌دار بيان ارزش و لزوم اين صفات است. هدف علم اخلاق در اين رويکرد، آراستن نفس به کمالات نفساني پسنديده و زودن صفات ناپسند از آن است. رفتارها و اعمال انسان که وسيله‌اي براي تحقق اين امر است نيز در اين رويکرد ارزش‌گذاري مي‌شود. به‌‌عبارت ‌ديگر، هدف در اين رويکرد دستيابي به کمال نفس است.
    برخي علماي مسلمان بر اساس انسان‌شناسي خاص خود، همين ديدگاه را اختيار کرده‌اند. از نظر ايشان حقيقت وجود انسان نفس مجرد اوست و کمال و نقص واقعي انسان نيز ناظر به همين نفس يا روح است. کمال و نقصي که با افعال اختيار انسان در اين دنيا به‌دست مي‌آيد در روح او باقي مي‌ماند و انسان پس از مرگ با همان‌ها محشور مي‌شود (نراقي، 1209ق، ج1، ص36-39).
    در رويکرد «فضيلت‌محور» ارزش‌گذاري مربوط به اشخاص است، نه رفتار. اما اين تأکيد در فلسفة اخلاق نوين جاي خود را به رويکردي به‌شدت قانون‌پرستانه، به رفتار داده است. ازاين‌رو قواعد و اصول بر صدر نشسته‌اند (هولمز، 1389، ص70). درواقع وجه تمايز اصلي در اين است که اخلاق فضيلت‌محور ناظر به ارزش‌هاي اخلاقي بوده و ديدگاه وظيفه‌گرا ناظر به الزام اخلاقي است. ازاين‌رو مسئلة اصلي در اخلاق فضيلت‌محور اين است که «چگونه انساني باشيم؟» و در نظرية وظيفه‌محور دغدغة اصلي اين است که «چه فعلي را بايد انجام دهيم؟» (خزاعي، 1389، ص18). بنابراين يک شخص ممکن است از فضايل اخلاقي بي‌بهره باشد، ولي به قصد انجام وظيفه، يک عمل اخلاقي را انجام دهد.
    به همين سبب است که برخي ارزش‌گذاري‌هايي که انجام مي‌دهيم مربوط به اشخاص است، نه کردار. ما حکم مي‌کنيم که مردم خوب يا بد، وظيفه‌شناس يا بي‌مسئوليت، درخور ستايش يا درخور نکوهش هستند. اين رويکرد به‌جاي آنکه تأکيدش بر کردار باشد، در پي راهنمايي انسان به‌جانب صفاتي است که بزرگ‌منشي را به بار مي‌آورند. اين صفات را «فضايل» مي‌نامند و اين جهت‌گيري معرفت اخلاق مبتني بر فضيلت است (هولمز، 1389، ص70).
    به باور اخلاق فضيلتي‌ها، به‌سبب فضيلت راست‌گويي است که نبايد دروغ گفت؛ يعني اين نظريه بر راست‌گو بودن تأکيد دارد و آن دو (سودگرايي و وظيفه‌گرايي) بر راست گفتن. وجه تمايز اصلي آنها اين است که اخلاق فضيلت ناظر به ارزش‌هاي اخلاقي است و دو نظرية «سودگرايي» و «وظيفه‌گرايي» ناظر به الزام اخلاقي. ازاين‌رو مسئلة اصلي در اخلاق فضيلت اين است که «چگونه انساني باشيم؟» و در دو نظرية ديگر اينکه «چه فعلي را بايد انجام دهيم؟» تمايز بين فضيلت‌محوري و عمل‌محوري موجب مي‌شود تا بتوانيم بين انجام يک عمل به‌ظاهر فضيلت‌مندانه و فضيلت‌مندانه عمل نمودن تمايز قائل شويم (خزاعي، 1389، ص18).
    ازاين‌رو نقد مبنايي به متن «يونسکو» آن است که مفاد توصيه‌نامه به علت آنکه از قسم مکاتب قراردادگرايي غيرواقع‌گراست، وظيفه‌محور و عمل‌محور است. پس همان‌گونه که در بند 10 سند «يونسکو» آمده، ارزش‌هاي ذکرشده در اين سند الهام‌بخش رفتار مطلوب است؛ يعني ارزش‌هاي اخلاقي آن تنها متوجه اصلاح کنش و رفتار ظاهري انسان است. در نتيجه، در اين سند اخلاقي اصلاً به مباحثي همچون کمالات نفساني، رابطة انسان با خدا، تأثير واقعي ارزش‌هاي اخلاقي در روح و نفس انسان و مواردي از اين ‌دست، اشاره نشده است.
    اما نظرية اخلاقي مکتب اسلام با رويکرد آيت‌الله مصباح يزدي بسي متفاوت از ديدگاه فضيلت‌گرايانه است. اين ديدگاه نکات مثبت ديدگاه «فضيلت‌گرايي اسلامي» را در خود دارد و افزون بر آن، نوعي ديدگاه غايت‌انگارانه و کمال‌جويانه است. در اين انديشه، رفتار اختياري نيز موضوع علم اخلاق است (مصباح‌ يزدي، 1384، ص325)؛ زيرا برخي صفات نفساني با تکرارِ رفتار اختياري به دست مي‌آيد (مصباح يزدي، 1373، ص9). رفتار اختياري انسان وسيله‌اي براي رسيدن به اهداف مطلوب است. ازاين‌رو رفتار به خاطر وسيله و مقدمه بودن، داراي ارزش است (مصباح يزدي، 1388، ج1، ص262). بنابراين در رويکرد آيت‌الله مصباح يزدي در اين انديشه، هم رفتار اختياري مد نظر است و هم صفات نفساني. در اين نظريه مفاهيم ارزش‌‌هاي اخلاقي مبتني بر واقعيت است. ازاين‌رو اين مکتب ذيل نظرية «واقع‌گرا» قرار مي‌گيرد.
    اهدافي که انسان‌ها براي تحقق بخشيدن به آنها مي‌کوشند، يا تأمين نيازمندي‌هاي طبيعي و پاسخ‌گويي به نيازها و غرايز است و يا تأمين منافع و مصالح اجتماعي و جلوگيري از فساد و هرج‌ومرج. ولي هدف اصلي انسان رسيدن سعادت ابدي و کمال معنوي و روحي است (مصباح يزدي، 1388، ج1، ص262).
    اما به نظر مي‌رسد هدف اخلاقي اين سند در رويکرد خوش‌بينانه، تأمين مصالح اجتماعي است. ولي در نظرية اخلاقي مکتب اسلام و آيت‌الله مصباح يزدي، هدف رسيدن به کمال نهايي است. مطلوبيت هدف به لحاظ حيثيت تکويني امر عيني و مستقل از ميل و رغبت و تشخيص افراد است. هرگاه فعل را در ارتباط با هدف مطلوب از جهت مطلوبيت آن در نظر بگيريم مفهوم «ارزش» از آن انتزاع مي‌شود، و هرگاه رابطة وجودي با نتيجة مترتب بر آن لحاظ شود مفهوم «وجوب» يا «شايستگي» و يا «بايستگي» از آن گرفته مي‌شود که در انديشة فلسفي از آن به «ضرورت بالقياس» تعبير مي‌گردد. به‌ بيان ‌ديگر بين فعل اختياري و نتايج مترتب بر آن رابطة سبب و مسببي برقرار است (مصباح يزدي، 1388، ج1، ص263-264).
    آيت‌الله مصباح يزدي در تفکيک بين موضوعات حقوقي و اخلاقي به نکته‌اي مهم اشاره‌ کرده است که مي‌تواند به‌ بحث حاضر و تمايز اخلاق «وظيفه‌گرا» و «کمال‌جو» نيز مربوط شود:
    در چنين مواردي اگر رعايت اين قاعده فقط به انگيزة ترس از مجازات دولت باشد، ارزش اخلاقي ندارد، هرچند کاري است موافق با موازين حقوقي؛ و اگر به انگيزة هدف عالي‌تر که همان هدف اخلاقي است انجام گيرد، کاري اخلاقي هم خواهد بود (مصباح يزدي، 1388، ج1، ص267).
    همچنين ديدگاه آيت‌الله مصباح يزدي به‌نوعي ديدگاه غايت‌انگارانه و کمال‌جويانه به معناي خاص خود است. هدف از فعل اختياري قرب وجودي به کمال مطلق و خداوند متعال است. در اين نظرية مبتکرانه ميان فعل اختياري انسان و نتيجة آن رابطة ضرورت بالقياس برقرار است. ازاين‌رو ارزش اخلاقي فعل اختياري تابع تأثير آن فعل در رسيدن انسان به کمال حقيقي است. پس هر کاري به‌اندازه‌اي که در رسيدن به کمال حقيقي انسان مؤثر باشد، ارزنده خواهد بود، و اگر تأثير منفي داشته باشد ارزش آن نيز منفي خواهد بود، و اگر هيچ ارزش مثبت يا منفي نداشته باشد خنثا خواهد بود (مصباح‌ يزدي، 1384، ص326-327).
    بنا بر نظرية اخلاقي مکتب اسلام دربارة ارزش‌هاي اخلاقي هوش مصنوعي، مي‌توان اين نظريه را ارائه داد: «اگر چرخة سامانه‌‌هاي هوش مصنوعي، از اختراع و کشف گرفته تا کاربرد و استفادة آن، در راستاي کمال انساني و تقرب به خداوند متعال باشد، اين کار ارزش اخلاقي دارد و به‌عکس، اگر فناوري هوش مصنوعي موجب دوري انسان از کمال حقيقي خود شود، ضدارزش به‌حساب مي‌آيد. در غير اين صورت، آن فناوري خنثا بوده و داراي ارزش و يا ضدارزش اخلاقي نيست».
    بنابراين رويکرد سوم اخلاق هوش مصنوعي در ارتباط با انسان از منظر اخلاق اسلامي مشخص شد و معيار و بايدها و نبايدهاي پيشرفت و استفاده از اين فناوري در جهت اخلاق اسلامي و تقرب به خداوند ارزش‌گذاري مي‌شود.
    نتيجه‌گيري
    تحقيق حاضر به لحاظ مباني، سند اخلاق هوش مصنوعي «يونسکو» را بررسي کرد. با اين کاوش مشخص شد سند مذکور مبتني بر قراردادگرايي است. در اين مکتب هدفْ عمل به وظيفه و اصلاح رفتار است، نه کسب صفات کمالي. اما نظرية اخلاقي اسلام جزو مکاتب واقع‌گرايي بوده و در انديشة برخي علماي فضيلت‌محور و از منظر آيت‌الله مصباح يزدي غايت‌گرا و کمال‌جوست. هدف نهايي در انديشة اين فيلسوف اخلاق، افزون بر تصحيح رفتار، ساختن شخص انسان و تقرب به خداوند متعال است.
    ازاين‌رو پيشنهاد مي‌شود در تنظيم قراردادهاي بين‌المللي، بررسي اسناد، اعلام نظرها و توافق‌ها دقت لازم شود و سازگاري آن با مباني انديشة اسلامي لحاظ گردد. همچنان‌که رهبر معظم انقلاب مي‌فرمايد، در بحث يادگيري فناوري، شاگردي‌کردن و علم‌آموزي اشکالي ندارد؛ اما نبايد به توصيه و برنامه‌هاي آنها خوش‌بين بود و عمل کرد (حسيني خامنه‌اي، 1397).
    افزون بر اين، پيشنهاد مي‌شود در نگاشت اسناد و تدوين قوانين و مقرارت ملي در حوزة هوش مصنوعي، متناسب با ارزش‌ها و چارچوب‌هاي اخلاقي و آموزه‌هاي اسلامي زمينه‌سازي شود.

    References: 
    • تگمارک، ماکس (1401ق). زندگی 0/3: انسان بودن در عصر هوش مصنوعی، ترجمة میثم لطفی، چ هشتم. تهران: فرهنگ نشر نو ـ آسیم.
    • جمعی از نویسندگان (1402). نقد و تکمیل پیش‌نویس نهایی توصیه‌نامة دربارة اخلاق هوش مصنوعی. دفتر فقه معاصر. قم: مرکز مدیریت حوزه‌های علمیه.
    • حسینی خامنه‌ای، سیدعلی (1392). سخنرانی در دیدار با اعضای شورای عالی انقلاب فرهنگی. 19/9/1392.
    • حسینی خامنه‌ای، سیدعلی (1397). سخنرانی در دیدار با جمعی از مسئولان نظام، سفرای کشورهای اسلامی و قشرهای مختلف مردم. 3/11/1397.
    • حسینی خامنه‌ای، سیدعلی (1400). سخنرانی در دیدار با جمعی از نخبگان و استعدادهای برتر علمی کشور. 26/8/1400.
    • خداقلیزاده، بهزاد و دیگران (1399). نقد و بررسی اولین پیش‌نویس توصیه‌نامة اخلاق هوش مصنوعی (یونسکو). تهران: پژوهشگاه فضای مجازی.
    • خزاعی، زهرا (1389). اخلاق فضیلت. تهران: حکمت.
    • ریچلز، جمیز (1389). فلسفة اخلاق. ترجمة آرش اخگری. تهران: حکمت.
    • ژکس (1362). فلسفة اخلاق (حکمت عملی). ترجمة ابوالقاسم پورحسینی. چ دوم. تهران: امیرکبیر.
    • طوسی، نصیرالدین (1413ق). اخلاق ناصری. تهران: علمیة اسلامیه.
    • محسنی، حمید و دیگران (1402). بررسی توصیه‌نامة اخلاقی هوش مصنوعی یونسکو و تبیین نقاط ضعف و قوت آن. جمعی از نویسندگان، نقد و تکمیل پیش‌نویس نهایی توصیه‌نامة دربارة اخلاق هوش مصنوعی. دفتر فقه معاصر. قم: مرکز مدیریت حوزه‌های علمیه.
    • محسنی،‌ حمید و فولادی قلعه،‌ کاظم (1401). سازگاری و ناسازگاری توصیه‌نامة اخلاق هوش مصنوعی یونسکو با نظریة اخلاقی اسلامی، اولین کنفرانس فضای سایبر. قم: دانشکده مهندسی دانشکدگان فارابی دانشگاه تهران.
    • محیطی، حسن و احمدی، حسین (1400). فلسفة اخلاق: فرااخلاق و اخلاق هنجاری. قم: مؤسسة آموزشی و پژوهشی امام خمینی.
    • مصباح یزدی، محمدتقی (1373). دروس فلسفة اخلاق. تهران: اطلاعات.
    • مصباح یزدی، محمدتقی (1384).‌ نقد و بررسی مکاتب اخلاقی. تحقیق و نگارش احمدحسین شریفی. چ سوم. قم: مؤسسة آموزشی و پژوهشی امام خمینی.
    • مصباح یزدی، محمدتقی (1388). آموزش فلسفه. چ هشتم. تهران: سازمان تبلیغات اسلامی.
    • مصباح یزدی، محمدتقی (1391). فلسفة اخلاق. تحقیق و نگارش احمدحسین شریفی. قم: مؤسسة آموزشی و پژوهشی امام خمینی.
    • مصباح، مجتبی (1390). بنیاد اخلاق (روشی نو در آموزش فلسفة اخلاق). چ هفتم. قم: مؤسسة آموزشی و پژوهشی امام خمینی.
    • نراقی، مهدی (1209ق). جامع السعادات. تحقیق محمد کلانتر. بیروت: مؤسسة الاعلمی للمطبوعات.
    • هولمز، رابرت ال (1389). مبانی فلسفة اخلاق. ترجمة مسعود علیا. تهران: ققنوس.
    شیوه ارجاع به این مقاله: RIS Mendeley BibTeX APA MLA HARVARD VANCOUVER

    APA | MLA | HARVARD | VANCOUVER

    محسنی، حمید.(1403) واکاوی سند اخلاق هوش مصنوعی یونسکو از منظر مبانی فلسفة اخلاق آیت‌الله مصباح یزدی. فصلنامه معرفت فلسفی، 22(2)، 57-76 https://doi.org/10.22034/marefatfalsafi.2025.5000166

    APA | MLA | HARVARD | VANCOUVER

    حمید محسنی."واکاوی سند اخلاق هوش مصنوعی یونسکو از منظر مبانی فلسفة اخلاق آیت‌الله مصباح یزدی". فصلنامه معرفت فلسفی، 22، 2، 1403، 57-76

    APA | MLA | HARVARD | VANCOUVER

    محسنی، حمید.(1403) 'واکاوی سند اخلاق هوش مصنوعی یونسکو از منظر مبانی فلسفة اخلاق آیت‌الله مصباح یزدی'، فصلنامه معرفت فلسفی، 22(2), pp. 57-76

    APA | MLA | HARVARD | VANCOUVER

    محسنی، حمید. واکاوی سند اخلاق هوش مصنوعی یونسکو از منظر مبانی فلسفة اخلاق آیت‌الله مصباح یزدی. معرفت فلسفی، 22, 1403؛ 22(2): 57-76