امیر جلالی بیدگلی، استاد دانشگاه قم در گفتوگو با ایکنا از قم، در پاسخ به اینکه هوش مصنوعی چگونه میتواند بهعنوان یک فرصت برای پژوهشگران علوم انسانی اسلامی عمل کند، اظهار کرد: هوش مصنوعی میتواند بهعنوان یک ابزار برای پژوهش و تحقیق مورد استفاده قرار بگیرد و پژوهشگران از آن استفاده لازم را داشته باشند.
وی بیان کرد: مراکز مختلف از جمله مرکز نور و دفتر تبلیغات اسلامی، حجم بیشماری از متون علمی و اسلامی را دارا هستند که مبنای کار پژوهشگران قرار میگیرد و هوش مصنوعی میتواند به یک دستیار پژوهشگر در این موارد مورد استفاده قرار بگیرد.
جلالی بیدگلی با بیان اینکه سیستم هوش مصنوعی فرصتهای بسیاری از جمله تسهیل دسترسی به دیتا، تفسیر و تکمیل دادههای پژوهشی مورد نیاز پژوهشگران، مقایسه و جمعبندی خودکار ایجاد میکند، افزود: بهعنوان مثال اگر پژوهشگر میخواهد مروری بر فلسفه اشراق داشته باشد، میتواند از هوش مصنوعی درخواست کند که محتواهای مربوط به این مطلب را جمعآوری و جمعبندی کرده و در قالب نکات کلیدی در اختیارش قرار بدهد.
استاد دانشگاه قم گفت: پژوهشگر با استفاده از هوش مصنوعی، زمان خود را صرف کارهایی که نیاز به خلاقیت انسانی ندارد، نمیکند، بلکه برای موضوعاتی صرف میکند که نقطه قوت پژوهشگر است، بهطور مثال برای تحقیق در مورد فلسفه اشراق، تنها به جمعبندی مواردی از جمله تفکر انتقادی و ارائه موضوعات جدید میپردازد و با این اقدام، سرعت پژوهش افزایش پیدا میکند.
وی با بیان اینکه ظهور اینترنت و طراحی نرمافزارهای مختلف سرعت انجام پژوهش را افزایش داد، تصریح کرد: در گذشته دسترسی به نسخ خطی و چاپی کتب و مقالات برای پژوهشگران امری زمانبر و فرسایشی بود، اما با ظهور اینترنت و نرمافزارهای متنوع در حوزه کتابخوانی، سرعت فعالیتهای پژوهشی افزایش یافت و هیچچیز از ارزشهای یک پژوهشگر را کاهش نداد.
جلالی بیدگلی با اشاره به اینکه علاوه بر بحث پژوهش، در همه حوزههای اسلامی و انسانی میتوان از هوش مصنوعی استفاده کرد، بیان کرد: موتور جستجوی هوشمند ویژه سؤالات دینی یکی از پروژههای دفتر تبلیغات اسلامی برای پاسخگویی به سؤالات شرعی است که از یک جنبه، عموم سؤالات دینی و از جنبه دیگر، سؤالات فقهی را جستجو میکند.
وی تصریح کرد: حال فرض کنید، موتور جستجوی هوشمندی راهاندازی شود که بتواند در احکامی که از سوی مراجع عظام صادر شده، جمعبندی و نظر غالب را استخراج کند و آنها را در اختیار مراجعهکنندگان قرار بدهد و سبب تسهیل در امور درخواستکنندگان شود.
استاد دانشگاه قم در پاسخ به اینکه بزرگترین تهدید هوش مصنوعی برای روشهای سنتی پژوهش در علوم انسانی اسلامی چیست و آیا ممکن است جایگزین تفکر انتقادی یا تفسیر انسانی شود، افزود: این تهدید از سه جنبه میتواند مورد بررسی قرار گیرد، جنبه نخست خود هوش مصنوعی است که در کنار مزیتهایی که دارد، دارای خطاهایی است که این خطاها اگر بهدرستی مدیریت نشود، ممکن است موجب خطا در پژوهشهایی که از آن مطالب نادرست استفاده میکنند، شود.
وی ادامه داد: برای مثال یک پژوهشگر از هوش مصنوعی بهعنوان دستیار پژوهش یا مرور ادبیات در یک حوزه خاص استفاده میکند و هوش مصنوعی در یک حوزه خاص به علل مختلف از جمله اینکه دانش لازم را در این زمینه ندارد، نمیتواند پاسخ مناسب ارائه دهد که در اصطلاح به آن توهم گفته میشود.
جلالی بیدگلی بیان کرد: یکی از موضوعات خاص توهم، مدلهای زبانی است یعنی یک متنی توسط یک مدل زبانی مثل چت جی پی تی تولید میشود که این متن درست نیست و در پژوهشهای تخصصی این مطالب نادرست تکرار میشود.
وی اضافه کرد: مدلها در موضوعات بسیار تخصصی توهم دارند که این امر موجب میشود پژوهشگر یا وقت بسیاری را صرف کند تا بداند که این محتوا درست نیست و یا اینکه براساس محتوای درست یک پژوهشی را انجام دهد که نتایج آن قابل اعتنا نیست.
جلالی بیدگلی تصریح کرد: این موضوعی است که باید مدیریت شود و اگر قرار باشد از هوش مصنوعی در هر شرایطی استفاده شود، ابتدا باید ریسکها و خطراتی که ممکن است هوش مصنوعی داشته باشد، بررسی یا مدیریت شود و یا اینکه پژوهشگر، آگاهانه با داشتن آن خطاها بتواند فعالیت خود را بهدرستی انجام دهد.
وی بیان کرد: تهدید دوم از سمت خود کاربران است، هوش مصنوعی ابزاری قدرتمند است اما میتواند در اختیار هر کسی قرار بگیرد، بنابراین اگر پژوهشگران حوزه اسلامی از این ابزار استفاده نکنند و حتی گاهی نسبت به آن موضع محتاطانه یا جانبدارانه داشته باشند، این تکنولوژی آنچنان که باید مورد استفاده قرار نمیگیرد و در نهایت پژوهشگران از این موضوع آسیب میبینند زیرا هوش مصنوعی ابزاری است که در جامعه جایگاه خوبی دارد.
استاد دانشگاه قم ادامه داد: در گذشته نیز در حوزه استفاده از اینترنت بسیاری از پژوهشگران حوزه علوم انسانی و اسلامی بدبینانهای به آن نگاه کردند و در نتیجه آن، در فضای اینترنت، محتواهای اسلامی بسیار کم بود و در بسیاری از موارد فرصت تولید محتوای مناسب را از دست دادیم.
وی با اشاره به اینکه تهدید سوم این است که این ابزار قدرتمند در دست مخالفان قرار بگیرد، گفت: بهطور مثال، در یک مدل هوش مصنوعی بیان میکند که در مورد موضوعی، آیه در قرآن وجود دارد، اما مدل براساس توهم نوشته شده است و هوش مصنوعی به علت قدرت ذاتی خود بهقدری این آیه را خوب نوشته که شاید اگر کسی قرآن را نخونده یا اطلاعاتی کافی نداشته باشد، آن را باور میکند، حال فرض کنید سیستمی که به این آسانی میتواند قرآن و حدیث را جعل کند، در اختیار دشمنان قرآن و اهل بیت(ع) قرار بگیرد که بدون تسلط بر آن، با آسیبهای جدی مواجه میشویم.
جلالی بیدگلی در پاسخ به این پرسش که آیا هوش مصنوعی میتواند در تحلیل متون کلاسیک اسلامی نقش داشته باشد، افزود: مراکز بسیاری از جمله مرکز نور بهطور خاص در این حوزه پیشرو است، اما چالشهایی در این زمینه وجود دارد.
وی تصریح کرد: مدلهایی که استفاده میکنیم، ذاتاً مدلهایی نیست که خود از ابتدا آموزش داده باشیم و بر پایه مدلهای غربی است، بنابراین باید بتوانیم در این حوزه، مدلهای اختصاصی خود را آموزش دهیم تا چالشهایی در زمینه درک عبارتهای تخصصی یا ظرافتهای زبان عربی کلاسیک بهوجود نیاید، اما آموزش این مدلها بسیار سنگین، پرهزینه و پرچالش است.
استاد دانشگاه قم بیان کرد: پژوهشگران باید با تلاش خود یک زیرساخت مناسب برای این آموزشها ایجاد و بررسی کنند که این اقدام چه میزان میتواند مزیت داشته باشد، همچنین زیرساخت مناسب برای این کار را نیز درنظر بگیرند.
جلالی بیدگلی در پاسخ به اینکه از منظر اخلاق اسلامی چه محدودیتهایی برای استفاده از هوش مصنوعی در پژوهشهای دینی باید تعیین شود، افزود: در سراسر دنیا در حوزههای حیاتی، سیستمهای هوش مصنوعی تصمیمگیر نیستند بلکه تصمیمیار هستند که در بحثهای مذهبی، فقهی و اخلاقی نیز باید همین اتفاق بیفتد.
وی ادامه داد: این سیستم در هیچ جای دنیا پذیرفته نیست که تصمیمگیری کنند یا فتوا تولید و حکم صادر کنند، بلکه این سیستمها باید در کنار کارشناس یا فقیه قرار بگیرند تا به صدور حکم بهتر یا فتوای دقیقتری بپردازند یا در صورت بروز خطای انسانی، آن خطاها را کاهش بدهند و از دادههای پیشین برای تولید فتوا و شناسایی ارزشهای اخلاقی استفاده کنند.
جلالی بیدگلی بیان کرد: با توجه به ماهیت هوش مصنوعی که دارای خطاست، در حال حاضر پذیرفته نیست که بهطور مستقیم از خروجی این سیستمها استفاده شود بلکه خروجی آنها باید در اختیار یک کارشناس قرار بگیرد و در صورت تأیید استفاده شود.
وی گفت: برای مثال زمانی که هوش مصنوعی پاسخگوی سؤالات شرعی است، بعد از اینکه این ابزار پاسخ را تولید کرد، کارشناس آن را بررسی کند و اگر پاسخ درست بود آن را برای کاربری که سؤال پرسیده، ارسال کند و اگر غلط بود ویرایش کند، اما حدوداً در ۷۰ درصد موارد پاسخی که این ابزار تولید میکند، پاسخ درستی است یعنی کارشناس، مهر تأیید بر درستی آن پاسخ میزند.
استاد دانشگاه قم در پاسخ به اینکه آیا هوش مصنوعی ممکن است به تحریف مفاهیم اسلامی منجر شود، افزود: این امکان وجود دارد و نمونه آن نیز در بحث توهم و تولید محتوای جعلی دیده میشود زیرا در استفاده از هوش مصنوعی مانند هر تکنولوژی دیگر باید ابتدا ریسکها و خطرها شناسایی و مدیریت شوند و با آگاهی با این خطرها مواجه شویم.
وی بیان کرد: در حال حاضر شاید بهترین شیوه کنترل این خطا این است که هوش مصنوعی را بهعنوان دستیار استفاده کنیم نه بهعنوان تصمیمگیر که کارشناسان برای خروجی این محتوای تولیدی توسط هوش مصنوعی یک تأیید و بصری داشته باشند.
گفتوگو از الهام حلاجیان
انتهای پیام