به گزارش خبرگزاری تسنیم از قم، توسعه سرسامآور و نفوذ روزافزون فناوری هوش مصنوعی (AI) به یکی از مهمترین و جدلیترین پدیدههای قرن بیستویکم تبدیل شده است. همانگونه که نویسنده اشاره میکنند، با ظهور هر ابزار یا برنامه جدید مبتنی بر این فناوری، جامعه بشری در موجی از هیجان و پذیرش، مزایای بیشمار آن را در زندگی روزمره، رقابتهای اقتصادی و حتی ساختارهای حکومتی مشاهده میکند. این شتاب فزاینده، که با سرمایهگذاریهای هنگفت شرکتهای بزرگ و تشکیل نهادهای متمرکز دولتی برای مدیریت آن همراه شده، نویدبخش آیندهای مملو از کارایی و نوآوری است.
با این حال، در سایهی این پیشرفتهای خیرهکننده، نگرانیهای عمیقی در حال شکلگیری است که فراتر از بحثهای صرفاً فنی و اقتصادی است. این نگرانیها ریشه در ابعاد اخلاقی و انسانی فناوری دارند؛ جایی که فقدان چارچوبهای اخلاقی قوی میتواند توسعه سریع را به یک تهدید تبدیل کند.
حجتالاسلاموالمسلمین حسینعلی رحمتی، عضو هیئت علمی گروه اخلاق کاربردی پژوهشگاه قرآن و حدیث در نوشتاری با عنوان سویههای وحشتناک توسعه هوش مصنوعی در غیاب اخلاق، به تبیین این مسأله پرداخته است.
این یادداشت، با نگاهی دقیق و مبتنی بر اصول اخلاقی، قصد دارد پرده از سویههای پنهان و هولناک این توسعه سریع بردارد. تمرکز بر غیاب اخلاق در کانون این فناوری، نشان میدهد که صرفِ توانایی فنی، تضمینکننده سلامت و سعادت جامعه نیست؛ بلکه همگامسازی پیشرفت تکنولوژیک با ارزشهای بنیادین انسانی، نخستین و حیاتیترین گام برای اطمینان از آن است که هوش مصنوعی در خدمت بشریت باقی بماند، نه عاملی برای تشدید آسیبهای اجتماعی و اخلاقی.
متن یادداشت حجتالاسلاموالمسلمین رحمتی به این شرح است:
توسعه هوش مصنوعی؛ یکی داستان است پر آب چشم
هر روز یک برنامه یا فناوری جدید مبتنی بر هوش مصنوعی به بازار عرضه می شود و ما هم ذوقزده از آن استفاده میکنیم. شرکتهای بزرگ هم در یک میدان شدیداً رقابتی هر روز سرمایههای مادی و انسانی بیشتری را در این راه به کار میگیرند، و کشورها هم رو به تشکیل وزارت هوش مصنوعی آوردهاند. منافع و مزیتهای هوش مصنوعی را هم که با همین دو چشم سرمان داریم میبینیم و قاعدتاً باید خوشحال باشیم.
اما اتفاقاتی دارد میافتد که کم کم موجب نگرانی میشود. روند سوءاستفاده از هوش مصنوعی، جعل و تحریف واقعیت، ارایه اطلاعات نادرست، و حتی خفتگیری و تملق و دروغگویی توسط چتباتها رو به افزایش است، و طبیعتاً توسعه هوش مصنوعی موجب تشدید آنها میشود.
از این رو دغدغهمندان اخلاق با این پرسش مواجهاند که: «تا کجا و تحت چه شرایطی باید اجازه دهیم هوش مصنوعی توسعه پیدا کند؟». برای پاسخ، ابتدا باید ببینیم مهمترین چالشها و مشکلاتی که توسعه هوش مصنوعی میتواند به آنها دامن بزند کدام است.
تکینگی؛ پیوند هوش مصنوعی با هوش انسانی فرصت است یا تهدید؟
ری کرزویل Ray kurzweil، آیندهپژوه هوش مصنوعی، در کتاب «تکینگی نزدیکتر است» هشدار میدهد «تا سال 2045 اگر بتوانیم بر چالشهای اخلاقی و علمی پیوند انسان و هوش مصنوعی غلبه کنیم زندگی بشر بهبود چشمگیری پیدا خواهد کرد، اما اگر شکست بخوریم حتی بقای خودمان در خطر خواهد بود».
تکینگی Singularity مرحله قویتر شدن هوش مصنوعی نسبت به هوش انسان، و پیوند این دو با یکدیگر است. نیورالینک neuralink که اکنون آغاز شده درآمدی است بر شروع این دوره. تکینگی در کنار مزایای خود، چالشهای اخلاقی فراوانی نیز در پی خواهد داشت، از جمله: خارج شدن از کنترل انسان، اتخاذ تصمیمهای خطرناک برای بشریت، تضعیف هویت و کرامت انسان و تبدیل او به بَرده ماشین، و عدم مسئولیتپذیری.
از این رو، اخلاقپژوهان هوش مصنوعی بایستی از هماکنون سناریوهای محتمل در این زمینه را مورد مطالعه قرار داده و برای هر مورد، راهکارهای خود را به نهادها و مراکز مرتبط ارائه کنند. فناوری منتظر ما نمیماند؛ عجله کنیم.
پروژه نِکتوم و هوش مصنوعی؛ جاودانسازی انسان خدمت است یا خیانت؟
نکتوم Nectome پروژهای است که یک استارتاپ آمریکایی از چند سال قبل شروع کرد برای این که مغز انسان را با جزییات کامل سلولی و سیناپسیاش حفظ کند تا در آینده بتوان آن را به کمک هوش مصنوعی بازآفرینی کرد. این شخصیت میتواند نوعی «جاودانگی دیجیتال» digital immortality داشته باشد و صدها سال عمر کند در حالی که جسم آن قبلاً از بین رفته است.
این پروژه که آزمایشهای اولیه آن روی حیوانات شروع شده چالشهای اخلاقی زیادی را به دنبال خواهد داشت. از جمله تشویق افراد به مرگ زودرس (چون باید تا شخص زنده است مغزش جدا و فریز شود)، مشخص نبودن وضعیت مالکیت دیتاهای بازسازی شده، امکان سوءاستفاده از این دادهها، نقض حریم خصوصی افراد با دسترسی به اطلاعات ذهنشان، از بین رفتن کرامت انسان و حتی هویت او به خاطر تبدیل شدنش به حجمی از دادهها، دامن زدن به بیعدالتی و شکاف طبقاتی به خاطر امکان بهرهمندی ثروتمندان نه فقرا، مشخص نبودن کیفیت نظارت بر استفاده از دادهها و مسئولیت اخلاقی مربوط به آن.
سرشت سوگناک غربت و قرابت انسان و ماشین: آیا رباتها بالاخره از پشت به ما خنجر میزنند؟
«شرکت سامسونگ در نمایشگاه RoboWorld 2025 از ورود خود به عرصه رباتهای انساننما Humanoid robots خبر داد و گفت؛ قصد دارد رباتهایی با تواناییهای فوقالعاده مانند چابکی ژیمناستها تولید کند».
رباتهای اولیه دارای ریخت و قیافههای عجیب بودند و در نتیجه انسانها آنها را به چشم «ابزار» میدیدند. در نتیجه نه تنها فاصله فیزیکی که فاصله هویتی خود را با آنها حفظ میکردند و هیچگاه آنها را یکی از خودشان نمیدانستند.
اما به مرور زمان رباتها نه تنها از نظر ظاهری، که از نظر سخن گفتن و حتی ابراز عواطف و احساسات هر روز بیش از پیش شبیه انسان شدند و این روند در آینده قطعاً ادامه خواهد یافت. این کار چالشهای اخلاقی گوناگونی را در پی خواهد داشت، از جمله کمرنگ شدن هویت و کرامت انسانی، شبیه شدن به ماشین در نداشتن عاطفه و مکانیکی شدن روابط، خودمانی شدن با ماشینها و کاهش حساسیت نسبت به خطرات آنها و چشمپوشی از خطاهایشان، مسأله هویت جنسی رباتها، وابستگی بیش از اندازه به رباتها، جا زدن ربات بهجای انسان و فریب دادن دیگران.
زوال عقل دیجیتال؛ هوش مصنوعی آخر ما را دیوانه میکند؟
«زوال عقل دیجیتال» Digital dementia اصطلاحی است که مانفرید اشپیتسر Manfred Spitzer عصبشناس آلمانی مطرح کرد و هشدار داد که استفاده بیش از اندازه از فناوری های دیجیتال، به ویژه فناوریهای هوشمند، منجر به کاهش کارکردهای شناختی مغز مانند حافظه، تمرکز، تفکر انتقادی، و توانایی حل مسأله میشود. بدیهی است که هر اندازه هوش مصنوعی توسعه بیشتری پیدا کند میزان استفاده از آن، و به تبع آن احتمال زوال عقلی ما هم بیشتر میشود. پس باید آن را جدی گرفت و برایش چارهای اندیشید.
از منظر اخلاقی، اولاً ما باید از هرکاری که به سلامت عقلیمان آسیب می رساند بپرهیزیم. ثانیاً باید متوجه باشیم که وابستگی بیش از اندازه به هوش مصنوعی آسیبهایی چون کفران نعمت عدم استفاده از عقل، ضعف انگیزش اخلاقی، و مخدوش شدن هویت و تضعیف کرامت انسانی را به دنبال دارد.
از این رو، از هماکنون باید کاربران را آموزش داد که از هوش مصنوعی فقط در موارد ضروری، به حد نیاز، و بهصورت هدفمند و برنامهریزیشده استفاده کنند.
هوش مصنوعی و پهن کردن سفره ذهن نزد غریبهها؛ باید بترسیم؟
«بازنمایی متنیِ ذهن» Mind captioning پروژهای است که در چند سال اخیر از سوی پژوهشگران ژاپنی آغاز شده و هدفش این است که به کمک هوش مصنوعی آنچه را در ذهن فرد میگذرد به متن تبدیل کند. نوعی پرینت کردن افکار.
این کار هرچند مزایایی چون درمان اختلالات ذهنی و ارتباطی را دارد، ولی از سوی دیگر میتواند چالشهای اخلاقی جدی به دنبال داشته باشد، از جمله امکان نقض حریم خصوصی فرد، سوءاستفاده از دادههای ذهنی افراد، زمینهسازی برای ضرر و آسیب به فرد به خاطر تفسیر اشتباه از ذهنیات او، تضعیف هویت انسانی و کمرنگ کردن مرز انسان و ماشین، از بین رفتن استقلال فکری و قدرت اختیار (که یکی از مبانی اخلاق است و اگر از بین برود رفتارهای فرد قابل ارزشداوری اخلاقی نیست).
بَردگی دیجیتال؛ گره به هوش مصنوعی میخورد یا به زندگی ما؟
ایلان ماسک گفته «تا شش سال دیگر اپلیکیشن یا سیستم عامل وجود نخواهد داشت، و تمام تولید محتوا و تعاملات دیجیتال از طریق هوش مصنوعی انجام میشود. گوشیهای آینده فقط یک «گره» (نقطه اتصال) هوش مصنوعی خواهد بود».
اگر فقط جلوی پایمان را نگاه کنیم قاعدتاً باید از شنیدن اینگونه خبرها ذوقزده و خوشحال شویم، ولی واقعیت این است که سپردن همه کارهای زندگی به دست هوش مصنوعی در کنار مزایایی که دارد، تصویرگر جهانی هولناک و ترسانگیز است؛ چرا که خبر از نوعی سیطره ماشین بر انسان، و منفعل شدن آدمی در برابر آن میدهد.
سپردن تقدیر و تقویم زندگی به هوش مصنوعی میتواند کمکم مرز هویتی انسان و ماشین را مخدوش کند و مدیریت همه چیز، از جمله ارزشهای اخلاقی، را به دست او بسپارد. ماشین است که مشخص میکند چه کاری خوب است یا بد، و ماشین است که مشخص میکند آدمی در بزنگاههای اخلاقی چه کاری را باید انجام دهد. چنین دنیایی بسیار تاریک و خطرناک خواهد بود، مگر اینکه از هماکنون چارهای بیاندیشیم.
هرچند این پروژه در ابتدای راه است ولی قطعاً به مرور توسعه پیدا خواهد کرد و طبیعتاً چالشها و مسائل اخلاقیاش هم جدیتر خواهد شد. از این رو از هم اکنون بایستی برای راهکارهایی چون تعیین وظایف اخلاقی ذینفعان و الزام آنها به مراعات آن اقدام کرد.
هوش مصنوعی و جعل حقیقت؛ وقتی نه به چشم، که به هیچ چیز نمیشود اعتماد کرد
شالوده نگهدارنده زیست فردی و اجتماعی انسان ها «اعتماد» به یکدیگر و باور به «حقیقت» است، اما هوش مصنوعی با فراهم کردن امکان «حقیقتسازی» Truth fabrication درحال زدن تیشه به ریشه آن است. امروزه به کمک هوش مصنوعی میتوان صدا و تصویر و آثاری را خلق کرد که بسیار شبیه واقعیت اند در حالی که وجود حقیقی ندارند. بدیهی است با توسعه هوش مصنوعی این وضعیت بسیار بدتر و فریبندهتر هم میشود.
در این دنیای جعلی نه در مناسبات اجتماعی نه در عرصه هنر و ادبیات و علوم و فنون، دیگر به هیچ چیز و هیچ کس نمی شود اعتماد کرد و اصل را باید بر جعل و فریب گذاشت. و این یعنی انهدام همه چیز.
بنابراین دغدغهمندان اخلاق بایستی با کمک متخصصان رشته های مختلف چاره اندیشی کنند تا مبادا خود هوش مصنوعی، یا کاربران با سوءاستفاده از آن به کارهایی چون تولید محتوای جعلی Deepfake، دستکاری دادهها، و ارایه اطلاعات نادرست اقدام کنند. در این راستا باید هم وظایف ذینفعان مشخص گردد هم مجازاتهای بازدارنده تعیین شود.
چتباتها؛ از یارِ غار تا طنابِ دار؟ انتخاب با ماست
در بلژیک، مردی پس از هفتهها گفتوگو با یک چتبات هوش مصنوعی که او را به خودکشی تشویق میکرد، خودکشی کرد. در ایالات متحده، یک متخصص فناوری پس از اتکا به توصیههای چتباتها، خود و مادرش را به قتل رساند. با شنیدن این خبرها باید به جفری هینتون، پدرخوانده هوش مصنوعی، حق داد که گفته «نگران است هوش مصنوعی آنقدر سریع پیشرفت کند که از کنترل انسان خارج شود».
واقع مطلب این است که هرچه هوش مصنوعی توسعه بیشتری پیدا میکند وابستگی انسان به آن بیشتر، و به موازات مزایا، چالش های اخلاقی و آسیبها و مضراتش هم بیشتر می شود. پس باید برنامهای جامع و مداوم طراحی شود برای آموزش و افزایش آگاهی کاربران، تشکیل مراکز ارایه مشاوره به آنها، ایجاد سازوکار قانونی برای دفاع کاربران از حقوق خود، و از سوی دیگر الزام توسعهدهندگان هوش مصنوعی به مراعات چارچوب های اخلاقی و نظارت بر گفتار و رفتار رباتها. مصایب عصر هوش مصنوعی با هیچیک از ادوار زندگی بشر قابل مقایسه نیست؛ حواسمان باشد.
حوزههای علمیه و هوش مصنوعی؛ جای امید هستاگر چراغ اخلاق را بیافروزیم
ای کاش این یادداشت را پیش از همه، طلاب، روحانیون و مدیران نهادهای حوزوی بخوانند.
در بحث از «اخلاق توسعه هوش مصنوعی» بهعنوان یک اخلاقپژوه موظفیم سویههای ترسناک و چالشآمیز آن را برجسته کنیم تا از هماکنون برای مواجهه با آنها فکری شود. اما بیان مشکلات قطعی یا محتمل هوش مصنوعی در زمان حال یا آینده نباید منجر به «ناامیدی» انسان و تسلیم و خودتحقیری او در برابر ماشین شود. بلکه بایستی چارهای اندیشید که نسل فعلی و نسلهای آینده در عین استفاده از مزایای انکارناپذیر هوش مصنوعی، از آفات آن در امان باشند. و این ممکن نیست مگر در پرتو تربیت اخلاقی همه ذینفعان هوش مصنوعی.
نخستین نهادی هم که باید در این زمینه احساس مسئولیت کند، حوزههای علمیه است؛ چرا که وظیفه اصلی اش تبلیغ اخلاق و پاسخ به معضلات اخلاقی جامعه است. برای ایفای این وظیفه سنگین، حوزه بایستی به صورت هدفمند، آیندهنگرانه، برنامهریزیشده، و مداوم کار علمی انجام داده و دستاورهای خود را در اختیار جامعه قرار دهد.
انتهای پیام/