1. صفحه اصلی
    • پربیننده‌ترین اخبار
    • مهمترین اخبار
    • آرشیو اخبار
  2. سیاسی
    • سیاست ایران
    • نظامی | دفاعی | امنیتی
    • گزارش و تحلیل سیاسی
    • مجلس و دولت
  3. امام و رهبری
  4. ورزشی
    • فوتبال ایران
    • فوتبال جهان
    • والیبال | بسکتبال | هندبال
    • کشتی و وزنه‌برداری
    • ورزش های رزمی
    • ورزش زنان
    • ورزش جهان
    • رشته های ورزشی
  5. بین الملل
    • دیپلماسی ایران
    • تولیدات دفاتر خارجی
    • آسیای غربی
    • افغانستان
    • آمریکا
    • اروپا
    • آسیا-اقیانوسیه
    • پاکستان و هند
    • ترکیه و اوراسیا
    • آفریقا
    • بیداری اسلامی
  6. فضا و نجوم
  7. اقتصادی
    • اقتصاد ایران
    • پول | ارز | بانک
    • خودرو
    • صنعت و تجارت
    • نفت و انرژی
    • فناوری اطلاعات | اینترنت | موبایل
    • کار آفرینی و اشتغال
    • راه و مسکن
    • هواشناسی
    • بازار سهام | بورس
    • کشاورزی
    • اقتصاد جهان
  8. اجتماعی
    • پزشکی
    • رسانه
    • طب سنتی
    • خانواده و جوانان
    • تهران
    • فرهنگیان و مدارس
    • پلیس
    • حقوقی و قضایی
    • علم و تکنولوژی
    • محیط زیست
    • سفر
    • حوادث
    • آسیب های اجتماعی
    • بازنشستگان
  9. فرهنگی
    • ادبیات و نشر
    • رادیو و تلویزیون
    • ‌دین ، قرآن و اندیشه
    • سینما و تئاتر
    • فرهنگ حماسه و مقاومت
    • موسیقی و تجسمی
  10. حوزه و روحانیت
  11. استانها
    • آذربایجان‌ شرقی
    • آذربایجان غربی
    • اردبیل
    • اصفهان
    • البرز
    • ایلام
    • بوشهر
    • استان تهران
    • چهارمحال و بختیاری
    • خراسان جنوبی
    • خراسان رضوی
    • خراسان شمالی
    • خوزستان
    • زنجان
    • سمنان
    • سیستان و بلوچستان
    • فارس
    • قزوین
    • قم
    • کاشان
    • کردستان
    • کرمان
    • کرمانشاه
    • کهگیلویه و بویراحمد
    • گلستان
    • گیلان
    • لرستان
    • مازندران
    • مرکزی
    • هرمزگان
    • همدان
    • یزد
    • جزایر خلیج فارس
  12. رسانه ها
    • چند رسانه ای
    • خواندنی
  13. بازار
    • قیمت خودرو
    • قیمت طلا، سکه و ارز
    • سازمان‌ها و شرکت‌ها
  14. عکس
  15. فیلم
  16. گرافیک و کاریکاتور
    • english
    • عربی
    • Türkçe
    • עברית
    • Pусский
  • RSS
  • تلگرام
  • اینستاگرام
  • توییتر
  •  
    آپارات
  •  
    سروش
  •  
    آی‌گپ
  •  
    گپ
  •  
    بله
  •  
    روبیکا
  •  
    ایتا
  • قیمت ارز و طلا
    لیگ ایران و جهان
  • صفحه اصلی
    • پربیننده‌ترین اخبار
    • مهمترین اخبار
    • آرشیو اخبار
  • سیاسی
    • سیاست ایران
    • نظامی | دفاعی | امنیتی
    • گزارش و تحلیل سیاسی
    • مجلس و دولت
  • امام و رهبری
  • ورزشی
    • فوتبال ایران
    • فوتبال جهان
    • والیبال | بسکتبال | هندبال
    • کشتی و وزنه‌برداری
    • ورزش های رزمی
    • ورزش زنان
    • ورزش جهان
    • رشته های ورزشی
  • بین الملل
    • دیپلماسی ایران
    • تولیدات دفاتر خارجی
    • آسیای غربی
    • افغانستان
    • آمریکا
    • اروپا
    • آسیا-اقیانوسیه
    • پاکستان و هند
    • ترکیه و اوراسیا
    • آفریقا
    • بیداری اسلامی
  • فضا و نجوم
  • اقتصادی
    • اقتصاد ایران
    • پول | ارز | بانک
    • خودرو
    • صنعت و تجارت
    • نفت و انرژی
    • فناوری اطلاعات | اینترنت | موبایل
    • کار آفرینی و اشتغال
    • راه و مسکن
    • هواشناسی
    • بازار سهام | بورس
    • کشاورزی
    • اقتصاد جهان
  • اجتماعی
    • پزشکی
    • رسانه
    • طب سنتی
    • خانواده و جوانان
    • تهران
    • فرهنگیان و مدارس
    • پلیس
    • حقوقی و قضایی
    • علم و تکنولوژی
    • محیط زیست
    • سفر
    • حوادث
    • آسیب های اجتماعی
    • بازنشستگان
  • فرهنگی
    • ادبیات و نشر
    • رادیو و تلویزیون
    • ‌دین ، قرآن و اندیشه
    • سینما و تئاتر
    • فرهنگ حماسه و مقاومت
    • موسیقی و تجسمی
  • حوزه و روحانیت
  • استانها
    • آذربایجان‌ شرقی
    • آذربایجان غربی
    • اردبیل
    • اصفهان
    • البرز
    • ایلام
    • بوشهر
    • استان تهران
    • چهارمحال و بختیاری
    • خراسان جنوبی
    • خراسان رضوی
    • خراسان شمالی
    • خوزستان
    • زنجان
    • سمنان
    • سیستان و بلوچستان
    • فارس
    • قزوین
    • قم
    • کاشان
    • کردستان
    • کرمان
    • کرمانشاه
    • کهگیلویه و بویراحمد
    • گلستان
    • گیلان
    • لرستان
    • مازندران
    • مرکزی
    • هرمزگان
    • همدان
    • یزد
    • جزایر خلیج فارس
  • رسانه ها
    • چند رسانه ای
    • خواندنی
  • بازار
    • قیمت خودرو
    • قیمت طلا، سکه و ارز
    • سازمان‌ها و شرکت‌ها
  • عکس
  • فیلم
  • گرافیک و کاریکاتور

سویه‌های هولناک هوش مصنوعی؛ وقتی پیشرفت بدون اخلاق جامعه را تهدید می‌کند

  • 19 آذر 1404 - 14:24
  • اخبار استانها
  • اخبار قم
سویه‌های هولناک هوش مصنوعی؛ وقتی پیشرفت بدون اخلاق جامعه را تهدید می‌کند

عضو هیئت علمی گروه اخلاق کاربردی پژوهشگاه قرآن و حدیث، به بررسی چالش‌ها و پیامدهای اخلاقی این فناوری پرداخته و هشدار می‌دهد که آینده بشر تنها با همگام‌سازی تکنولوژی و اخلاق در امان خواهد بود.

استانها

به گزارش خبرگزاری تسنیم از قم، توسعه سرسام‌آور و نفوذ روزافزون فناوری هوش مصنوعی (AI) به یکی از مهم‌ترین و جدلی‌ترین پدیده‌های قرن بیست‌ویکم تبدیل شده است. همان‌گونه که نویسنده اشاره می‌کنند، با ظهور هر ابزار یا برنامه‌ جدید مبتنی بر این فناوری، جامعه بشری در موجی از هیجان و پذیرش، مزایای بی‌شمار آن را در زندگی روزمره، رقابت‌های اقتصادی و حتی ساختارهای حکومتی مشاهده می‌کند. این شتاب فزاینده، که با سرمایه‌گذاری‌های هنگفت شرکت‌های بزرگ و تشکیل نهادهای متمرکز دولتی برای مدیریت آن همراه شده، نویدبخش آینده‌ای مملو از کارایی و نوآوری است.

با این حال، در سایه‌ی این پیشرفت‌های خیره‌کننده، نگرانی‌های عمیقی در حال شکل‌گیری است که فراتر از بحث‌های صرفاً فنی و اقتصادی است. این نگرانی‌ها ریشه در ابعاد اخلاقی و انسانی فناوری دارند؛ جایی که فقدان چارچوب‌های اخلاقی قوی می‌تواند توسعه سریع را به یک تهدید تبدیل کند. 

حجت‌الاسلام‌والمسلمین حسینعلی رحمتی، عضو هیئت علمی گروه اخلاق کاربردی پژوهشگاه قرآن و حدیث در نوشتاری با عنوان سویه‌های وحشت‌ناک توسعه هوش مصنوعی در غیاب اخلاق، به تبیین این مسأله پرداخته است.

این یادداشت، با نگاهی دقیق و مبتنی بر اصول اخلاقی، قصد دارد پرده از سویه‌های پنهان و هولناک این توسعه سریع بردارد. تمرکز بر غیاب اخلاق در کانون این فناوری، نشان می‌دهد که صرفِ توانایی فنی، تضمین‌کننده سلامت و سعادت جامعه نیست؛ بلکه همگام‌سازی پیشرفت تکنولوژیک با ارزش‌های بنیادین انسانی، نخستین و حیاتی‌ترین گام برای اطمینان از آن است که هوش مصنوعی در خدمت بشریت باقی بماند، نه عاملی برای تشدید آسیب‌های اجتماعی و اخلاقی.

متن یادداشت حجت‌الاسلام‌والمسلمین رحمتی به این شرح است:

توسعه هوش مصنوعی؛ یکی داستان است پر آب چشم

هر روز یک برنامه یا فناوری جدید مبتنی بر هوش مصنوعی به بازار عرضه می شود و ما هم ذوق‌زده از آن استفاده می‌کنیم. شرکت‌های بزرگ هم در یک میدان شدیداً رقابتی هر روز سرمایه‌های مادی و انسانی بیشتری را در این راه به کار می‌گیرند، و کشورها هم رو به تشکیل وزارت هوش مصنوعی آورده‌اند. منافع و مزیت‌های هوش مصنوعی را هم که با همین دو چشم سرمان داریم می‌بینیم و قاعدتاً باید خوشحال باشیم. 

اما اتفاقاتی دارد می‌افتد که کم کم موجب نگرانی می‌شود. روند سوءاستفاده از هوش مصنوعی، جعل و تحریف واقعیت، ارایه اطلاعات نادرست، و حتی خفت‌گیری و تملق و دروغ‌گویی توسط چت‌بات‌ها رو به افزایش است، و طبیعتاً توسعه هوش مصنوعی موجب تشدید آنها می‌شود. 

از این رو دغدغه‌مندان اخلاق با این پرسش مواجه‌اند که: «تا کجا و تحت چه شرایطی باید اجازه دهیم هوش مصنوعی توسعه پیدا کند؟». برای پاسخ، ابتدا باید ببینیم مهم‌ترین چالش‌ها و مشکلاتی که توسعه هوش مصنوعی می‌تواند به آنها دامن بزند کدام است.

تکینگی؛ پیوند هوش مصنوعی با هوش انسانی فرصت است یا تهدید؟

ری کرزویل Ray kurzweil، آینده‌پژوه هوش مصنوعی، در کتاب «تکینگی نزدیک‌تر است» هشدار می‌دهد «تا سال 2045 اگر بتوانیم بر چالش‌های اخلاقی و علمی پیوند انسان و هوش مصنوعی غلبه کنیم زندگی بشر بهبود چشم‌گیری پیدا خواهد کرد، اما اگر شکست بخوریم حتی بقای خودمان در خطر خواهد بود». 

تکینگی Singularity مرحله قوی‌تر شدن هوش مصنوعی نسبت به هوش انسان، و پیوند این دو با یکدیگر است. نیورالینک neuralink که اکنون آغاز شده درآمدی است بر شروع این دوره. تکینگی در کنار مزایای خود، چالش‌های اخلاقی فراوانی نیز در پی خواهد داشت، از جمله: خارج شدن از کنترل انسان، اتخاذ تصمیم‌های خطرناک برای بشریت، تضعیف هویت و کرامت انسان و تبدیل او به بَرده ماشین، و عدم مسئولیت‌پذیری.

از این رو، اخلاق‌پژوهان هوش مصنوعی بایستی از هم‌اکنون سناریوهای محتمل در این زمینه را مورد مطالعه قرار داده و برای هر مورد، راهکارهای خود را به نهادها و مراکز مرتبط ارائه کنند. فناوری منتظر ما نمی‌ماند؛ عجله کنیم.

پروژه نِکتوم و هوش مصنوعی؛ جاودان‌سازی انسان خدمت است یا خیانت؟

نکتوم Nectome پروژه‌ای است که یک استارتاپ آمریکایی از چند سال قبل شروع کرد برای این که مغز انسان را با جزییات کامل سلولی و سیناپسی‌اش حفظ کند تا در آینده بتوان آن را به کمک هوش مصنوعی بازآفرینی کرد. این شخصیت می‌تواند نوعی «جاودانگی دیجیتال» digital immortality داشته باشد و صدها سال عمر کند در حالی که جسم آن قبلاً از بین رفته است. 

این پروژه که آزمایش‌های اولیه آن روی حیوانات شروع شده چالش‌های اخلاقی زیادی را به دنبال خواهد داشت. از جمله تشویق افراد به مرگ زودرس (چون باید تا شخص زنده است مغزش جدا و فریز شود)، مشخص نبودن وضعیت مالکیت دیتاهای بازسازی شده، امکان سوءاستفاده از این داده‌ها، نقض حریم خصوصی افراد با دسترسی به اطلاعات ذهن‌شان، از بین رفتن کرامت انسان و حتی هویت او به خاطر تبدیل شدنش به حجمی از داده‌ها، دامن زدن به بی‌عدالتی و شکاف طبقاتی به خاطر امکان بهره‌مندی ثروتمندان نه فقرا،‌ مشخص نبودن کیفیت نظارت بر استفاده از داده‌ها و مسئولیت اخلاقی مربوط به آن.

سرشت سوگ‌ناک غربت و قرابت انسان و ماشین: آیا ربات‌ها بالاخره از پشت به ما خنجر می‌زنند؟

«شرکت سامسونگ در نمایشگاه RoboWorld 2025 از ورود خود به عرصه ربات‌های انسان‌نما Humanoid robots خبر داد و گفت؛ قصد دارد ربات‌هایی با توانایی‌های فوق‌العاده مانند چابکی ژیمناست‌ها تولید کند».

ربات‌های اولیه دارای ریخت و قیافه‌های عجیب بودند و در نتیجه انسان‌ها آنها را به چشم «ابزار» می‌دیدند. در نتیجه نه تنها فاصله فیزیکی که فاصله هویتی خود را با آنها حفظ می‌کردند و هیچگاه آنها را یکی از خودشان نمی‌دانستند.

اما به مرور زمان ربات‌ها نه تنها از نظر ظاهری، که از نظر سخن گفتن و حتی ابراز عواطف و احساسات هر روز بیش از پیش شبیه انسان شدند و این روند در آینده قطعاً ادامه خواهد یافت. این کار چالش‌های اخلاقی گوناگونی را در پی خواهد داشت، از جمله کم‌رنگ شدن هویت و کرامت انسانی، شبیه شدن به ماشین در نداشتن عاطفه و مکانیکی شدن روابط، خودمانی شدن با ماشین‌ها و کاهش حساسیت نسبت به خطرات آنها و چشم‌پوشی از خطاهای‌شان، مسأله هویت جنسی ربات‌ها‌، وابستگی بیش از اندازه به ربات‌ها، جا زدن ربات به‌جای انسان و فریب دادن دیگران.

زوال عقل دیجیتال؛ هوش مصنوعی آخر ما را دیوانه می‌کند؟

«زوال عقل دیجیتال» Digital dementia اصطلاحی است که مانفرید اشپیتسر Manfred Spitzer عصب‌شناس آلمانی مطرح کرد و هشدار داد که استفاده بیش از اندازه از فناوری های دیجیتال، به ویژه فناوری‌های هوشمند، منجر به کاهش کارکردهای شناختی مغز مانند حافظه، تمرکز، تفکر انتقادی، و توانایی حل مسأله می‌شود. بدیهی است که هر اندازه هوش مصنوعی توسعه بیشتری پیدا کند میزان استفاده از آن، و به تبع آن احتمال زوال عقلی ما هم بیشتر می‌شود. پس باید آن را جدی گرفت و برایش چاره‌ای اندیشید.

از منظر اخلاقی، اولاً ما باید از هرکاری که به سلامت عقلی‌مان آسیب می رساند بپرهیزیم. ثانیاً باید متوجه باشیم که وابستگی بیش از اندازه به هوش مصنوعی آسیب‌هایی چون کفران نعمت عدم استفاده از عقل، ضعف انگیزش اخلاقی، و مخدوش شدن هویت و تضعیف کرامت انسانی را به دنبال دارد.

از این رو، از هم‌اکنون باید کاربران را آموزش داد که از هوش مصنوعی فقط در موارد ضروری، به حد نیاز، و به‌صورت هدف‌مند و برنامه‌ریزی‌شده استفاده کنند.

هوش مصنوعی و پهن کردن سفره ذهن نزد غریبه‌ها؛ باید بترسیم؟

«بازنمایی متنیِ ذهن» Mind captioning پروژه‌ای است که در چند سال اخیر از سوی پژوهشگران ژاپنی آغاز شده و هدفش این است که به کمک هوش مصنوعی آنچه را در ذهن فرد می‌گذرد به متن تبدیل کند. نوعی پرینت کردن افکار. 

این کار هرچند مزایایی چون درمان اختلالات ذهنی و ارتباطی را دارد، ولی از سوی دیگر می‌تواند چالش‌های اخلاقی جدی به دنبال داشته باشد، از جمله امکان نقض حریم خصوصی فرد، سوءاستفاده از داده‌های ذهنی افراد، زمینه‌سازی برای ضرر  و آسیب به فرد به خاطر تفسیر اشتباه از ذهنیات او، تضعیف هویت انسانی و کم‌رنگ کردن مرز انسان و ماشین، از بین رفتن استقلال فکری و قدرت اختیار (که یکی از مبانی اخلاق است و اگر از بین برود رفتارهای فرد قابل ارزشداوری اخلاقی نیست).

بَردگی دیجیتال؛ گره به هوش مصنوعی می‌خورد یا به زندگی ما؟

ایلان ماسک گفته «تا شش سال دیگر اپلیکیشن یا سیستم عامل وجود نخواهد داشت، و تمام تولید محتوا و تعاملات دیجیتال از طریق هوش مصنوعی انجام می‌شود. گوشی‌های آینده فقط یک «گره» (نقطه اتصال) هوش مصنوعی خواهد بود».

اگر فقط جلوی پای‌مان را نگاه کنیم قاعدتاً باید از شنیدن این‌گونه خبرها ذوق‌زده و خوشحال شویم، ولی واقعیت این است که سپردن همه کارهای زندگی به دست هوش مصنوعی در کنار مزایایی که دارد، تصویرگر جهانی هولناک و ترس‌انگیز است؛ چرا که خبر از نوعی سیطره ماشین بر انسان، و منفعل شدن آدمی در برابر آن می‌دهد.

سپردن تقدیر و تقویم زندگی به هوش مصنوعی می‌تواند کم‌کم مرز هویتی انسان و ماشین را مخدوش کند و مدیریت همه چیز، از جمله ارزش‌های اخلاقی، را به دست او بسپارد. ماشین است که مشخص می‌کند چه کاری خوب است یا بد، و ماشین است که مشخص می‌کند آدمی در بزنگاه‌های اخلاقی چه کاری را باید انجام دهد. چنین دنیایی بسیار تاریک و خطرناک خواهد بود، مگر این‌که از هم‌اکنون چاره‌ای بیاندیشیم.

هرچند این پروژه در ابتدای راه است ولی قطعاً به مرور توسعه پیدا خواهد کرد و طبیعتاً چالش‌ها و مسائل اخلاقی‌اش هم جدی‌تر خواهد شد. از این رو از هم اکنون بایستی برای راهکارهایی چون تعیین وظایف اخلاقی ذی‌نفعان و الزام آنها به مراعات آن اقدام کرد.

هوش مصنوعی و جعل حقیقت؛ وقتی نه به چشم، که به هیچ چیز نمی‌شود اعتماد کرد

شالوده نگه‌دارنده زیست فردی و اجتماعی انسان ها «اعتماد» به یکدیگر و باور به «حقیقت» ‌است، اما هوش مصنوعی با فراهم کردن امکان «حقیقت‌سازی» Truth fabrication درحال زدن تیشه به ریشه آن است. امروزه به کمک هوش مصنوعی می‌توان صدا و تصویر و آثاری را خلق کرد که بسیار شبیه واقعیت اند در حالی که وجود حقیقی ندارند. بدیهی است با توسعه هوش مصنوعی این وضعیت بسیار بدتر و فریبنده‌تر هم می‌شود.

در این دنیای جعلی نه در مناسبات اجتماعی نه در عرصه هنر و ادبیات و علوم و فنون، دیگر به هیچ چیز و هیچ کس نمی شود اعتماد کرد و اصل را باید بر جعل و فریب گذاشت. و این یعنی انهدام همه چیز. 

بنابراین دغدغه‌مندان اخلاق بایستی با کمک متخصصان رشته های مختلف چاره اندیشی کنند تا مبادا خود هوش مصنوعی، یا کاربران با سوءاستفاده از آن به کارهایی چون تولید محتوای جعلی Deepfake، دستکاری داده‌ها، و ارایه اطلاعات نادرست اقدام کنند. در این راستا باید هم وظایف ذی‌نفعان مشخص گردد هم مجازات‌های بازدارنده تعیین شود.

چت‌بات‌ها؛ از یارِ غار تا طنابِ دار؟ انتخاب با ماست

در بلژیک، مردی پس از هفته‌ها گفت‌وگو با یک چت‌بات هوش مصنوعی که او را به خودکشی تشویق می‌کرد، خودکشی کرد. در ایالات متحده، یک متخصص فناوری پس از اتکا به توصیه‌های چت‌بات‌ها، خود و مادرش را به قتل رساند. با شنیدن این خبرها باید به جفری هینتون، پدرخوانده هوش مصنوعی، حق داد که گفته «نگران است هوش مصنوعی آن‌قدر سریع پیشرفت کند که از کنترل انسان خارج شود». 

واقع مطلب این است که هرچه هوش مصنوعی توسعه بیشتری پیدا می‌کند وابستگی انسان به آن بیشتر، و به موازات مزایا، چالش های اخلاقی و آسیب‌ها و مضراتش هم بیشتر می شود. پس باید برنامه‌ای جامع و مداوم طراحی شود برای آموزش و افزایش آگاهی کاربران، تشکیل مراکز ارایه مشاوره به آنها، ایجاد سازوکار قانونی برای دفاع کاربران از حقوق خود، و از سوی دیگر الزام توسعه‌دهندگان هوش مصنوعی به مراعات چارچوب های اخلاقی و نظارت بر گفتار و رفتار ربات‌ها. مصایب عصر هوش مصنوعی با هیچ‌یک از ادوار زندگی بشر قابل مقایسه نیست؛ حواس‌مان باشد.

حوزه‌های علمیه و هوش مصنوعی؛ جای امید هستاگر چراغ اخلاق را بیافروزیم

ای کاش این یادداشت را پیش از همه، طلاب، روحانیون و مدیران نهادهای حوزوی بخوانند. 

در بحث از «اخلاق توسعه هوش مصنوعی» به‌عنوان یک اخلاق‌پژوه موظفیم سویه‌های ترسناک و چالش‌آمیز آن را برجسته کنیم تا از هم‌اکنون برای مواجهه با آنها فکری شود. اما بیان مشکلات قطعی یا محتمل هوش مصنوعی در زمان حال یا آینده نباید منجر به «ناامیدی» انسان و تسلیم و خودتحقیری او در برابر ماشین شود. بلکه بایستی چاره‌ای اندیشید که نسل فعلی و نسل‌های آینده در عین استفاده از مزایای انکارناپذیر هوش مصنوعی، از آفات آن در امان باشند. و این ممکن نیست مگر در پرتو تربیت اخلاقی همه ذی‌نفعان هوش مصنوعی. 

نخستین نهادی هم که باید در این زمینه احساس مسئولیت کند، حوزه‌های علمیه است؛ چرا که وظیفه اصلی اش تبلیغ اخلاق و پاسخ به معضلات اخلاقی جامعه است. برای ایفای این وظیفه سنگین، حوزه بایستی به صورت هدف‌مند، آینده‌نگرانه، برنامه‌ریزی‌شده، و مداوم کار علمی انجام داده و دستاورهای خود را در اختیار جامعه قرار دهد.

انتهای پیام/

 
R7371/P
قیمت ارز و طلا
لیگ ایران و جهان
نظام مسایل استان ها
واژه های کاربردی مرتبط
  • حوزه علمیه
  • پژوهش
  • هوش مصنوعی
  • اخبار قم
tasnim
tasnim
tasnim
رازی
مادیران
شهر خبر
fownix
بیمه بازار
غار علیصدر
گوشتیران
پاکسان
بانک صادرات
طبیعت
میهن
triboon
تبلیغات
  • طراحی سایت
  • بازرگانی سیب
  • سئو سایت
  • دکتر اورولوژی
  • آیا بیماری اسکولیوز خطرناک است؟
  • تور کیش اقساطی
  • استعلام شرکت با نام
  • درباره ما
  • ارتباط با ما
  • پربیننده‌ترین اخبار
  • پیوندها
  • بازار
  • قیمت ارز و طلا
  • لیگ ایران و جهان
  • آرشیو اخبار ؛ جدیدترین اخبار لحظه به لحظه امروز
ما را دنبال کنید:
  • RSS
  • تلگرام
  • اینستاگرام
  • توییتر
  • آپارات
  • سروش
  • آی‌گپ
  • گپ
  • بله
  • روبیکا
  • ایتا

All Content by Tasnim News Agency is licensed under a Creative Commons Attribution 4.0 International License.