هوش مصنوعی میتواند به ایجاد عدالت آموزشی کمک کند
تاریخ انتشار: ۲۶ تیر ۱۴۰۲ | کد خبر: ۳۸۲۳۹۶۱۲
مدیرگروه هوش ماشین و رباتیک دانشگاه تهران با بیان اینکه با استفاده از سیستمهای هوشمند میتوان طیف وسیعی از دانش آموزان و دانشجویان را تحت پوشش آموزش مناسب قرار داد، اظهار کرد: استفاده از هوش مصنوعی میتواند در ایجاد عدالت آموزشی به ما کمک کند.
دکتر منوچهر مرادی سبزوار در گفتوگو با ایسنا، درباره کاربرد هوش مصنوعی در آموزش گفت: برای پاسخ به پرسش کاربرد هوش مصنوعی در آموزش، در وهله نخست باید به اهداف آموزش و ابزارهای مورد استفاده در آموزش توجه کرد.
بیشتر بخوانید:
اخباری که در وبسایت منتشر نمیشوند!
وی با بیان اینکه هنگامی که از به کارگیری هوش مصنوعی در عرصه آموزش استفاده میکنیم باید به تمام مؤلفهها، ویزگیها و اهداف آموزش توجه کنیم، خاطرنشان کرد: ابزارهایی مانند وایتبورد و اسلاید در آموزش سنتی بةکار گرفته میشدند. دوران پاندمی کرونا سبب تغییراتی در عرصه آموزش شد و استفاده از مولتیمدیا مانند دمو و ویدئوها رونق گرفت و برای آموختن یک عنوان درسی بهکار گرفته شدند.
کمبود افراد خبره در عرصه آموزش
مدیرگروه هوش ماشین و رباتیک دانشگاه تهران گفت: اگرچه ما استفاده از روشهای نوین آموزشی را در دستور کار قرار دادیم، اما امکان استفاده وسیع از افراد خبره در عرصه آموزش، به دلیل کمبود چنین افرادی، نداشتهایم. عدم وجود چنین افراد خبره در آموزش بدلیل فرایند زمانگیر کسب تجربه در آموزش و هر حیطه تخصصی دیگر است؛ به طور مثال، یک معلم پس از ۲۰ سال تجربه کافی، آموزش موفق را کسب میکند.
این استاد دانشگاه با بیان اینکه یکی از مشکلاتی که در عرصه آموزش وجود دارد، مسالهی تعداد کم خبرگان است؛ اظهار کرد: با توجه به دوره طولانی کسب تجربه و خبرگی در عرصه آموزش، لازم است که این تجربه و خبرگی را نهادینه و مستندسازی کنیم. اگر یک نفر از اساتید یا معلمان را در گذر زمان از دست دادیم بتوانیم از اطلاعات مستندسازی شده آنها استفاده کنیم و این کار را هوش مصنوعی میتواند انجام دهد.
عضو هیئتعلمی دانشگاه تهران با بیان اینکه در کنار محدودیت تعداد اساتید ماهر در امر آموزش، محدودیتهای فیزیکی دیگری همچون محدودیت در پاسخ به سوالات مطرح شده در کلاس و بیرون از کلاس و محدودیت در حضور در نقاط دور افتاده، میتواند در امر آموزش موثر اختلال ایجاد کند؛ اظهار کرد: بنابراین میتوان گفت که پس از کسب و ثبت تجربه انسانی توسط یادگیری ماشین و هوش مصنوعی، میتوان این محدودیتها را هم تقلیل داد. به عنوان مثال، میتوان از هوش مصنوعی در قالب یک کمک استاد بهرهبرد.
هوش مصنوعی، پاسخ دانشجویان و دانشآموزان را میدهد
وی ادامه داد: پاسخ پرسشهای بسیار دانشجویان و دانشآموزان توسط هوش مصنوعی دادهشود. همچنین هوش مصنوعی را میتوان به کار گرفت تا پاسخ استاد به دانشجویان را شخصی سازی نموده و حتی در اختیار دانشجویان دیگر هم قرار داد. بدین ترتیب با استفاده از هوش مصنوعی میتوانیم یک سیستم آموزشی مقیاسپذیر داشته باشیم، منظور این است که اگرچه دسترسی محدود است اما با استفاده از هوش مصنوعی میتوانیم سیستمهای آموزشی آنلاین یا افلاین را برای افراد فراهم کنیم.
این استاد دانشگاه در ادامه خاطرنشان کرد: از کاربردهای دیگر هوش مصنوعی در آموزش میتوان به پایش هوشمند وضعیت دانشجویان در درس اشاره کرد. به عنوان مثال هنگامی که تعداد دانشجویان در یک کلاس درس محدود باشد، استاد به راحتی میتواند بفهمد که آیا دانشجو محتوای آموزشی را آموخته است یا خیر اما با افزایش تعداد دانشجویان، بسیاری از اساتید مشکل در تعقیب وضعیت دانشجویان در درس دارند. لذا با استفاده از سیستمهای هوشمند میتوان دانشجویان یک کلاس درس را پایش کرده و درباره میزان بازخورد دانشجویان، میزان تسلط دانشجویان به محتوای آموزش داده شده، میزان توجه دانشجویان به درس، تعداد سؤالات مطرح شده توسط دانشجویان، میزان توجه دانشجویان به یک سؤال خاص و دیگر موارد اطلاعات درباره کلاس ارائه دهد. چنین سیستمی همچون سیستمهای هوش تجاری "Business Intelligence" خواهد بود. یعنی یک سیستم هوشمند مختص اساتید و کلاسهای درس که درباره وضعیت کلاس اطلاعات مورد نیاز ارائه دهد. در نسخههای پیشرفته میتواند پیشنهاد مناسب داده و یا حتی بصورت مستقیم در بهبود فرایند آموزش تاثیر گذار باشد.
مدیرگروه هوش ماشین و رباتیک دانشگاه تهران گفت: شاید اساتید و معلمان نتوانند خود را در زمینه اطلاعات بروز نگه دارند اما آنها با بهرهگرفتن از هوش مصنوعی میتوانند مثالهای جدیدی را مطرح کنند. هوش مصنوعی میتواند با توجه به موضوع و سرفصلهای آموزشی، موارد و مثالهای جدیدی را بیان کند. یک سیستم میتواند موارد متعددی را به اساتید توصیه کند و استاد از آن موارد در کلاس درس بهره ببرد.
سیستمهای نوین میتوانند موارد متعددی پیشنهاد دهند
وی با بیان اینکه طراحی پروژه و تکالیف جزو وظایف اصلی یک استاد به حساب میآید، اظهار کرد: سیستمهای هوشمندی که به آن اشاره کردیم، میتوانند برخی از کارها را انجام دهند. این سیستمها میتوانند با سرچ کردن یا پیشنهاد دادن، مطالبی را در اختیار اساتید قرار دهند. این سیستمهای هوشمند حتی قابلیت طراحی سوال را هم دارند. تمام این مواردی که به آن اشاره کردیم، میتواند به معلمان و اساتید کمک کند.
این استاد دانشگاه درباره مقاومتهای احتمالی درباره بهکارگیری هوش مصنوعی در آموزش گفت: بسیاری به سیستم آموزش سنتی و چهره به چهره علاقمند هستند و مقاومتهایی نسبت به آموزش آنلاین در زمان کرونا وجود داشت. اگرچه شیوه آموزش سنتی مزایای مختص به خود را دارد اما به نظر میرسد که شیوه آموزش ترکیبی، بهتر است. هوش مصنوعی هیچ ارتباط به شیوه آموزشی، چه سنتی یا جدید، ندارد و در شیوه آموزش سنتی هم قابل استفاده است. هوش مصنوعی میتواند رفتارها، نیازها، آلام افراد حاظر در کلاس درس در لحظه رصد و پایش کند. به بیان دیگر، همان کاری که مدرسین خبره در بررسی وضعیت دانشجویان در کلاس دارند، سیستمهای هوشمند میتوانند به کمک تمامی مدرسین آمده و وضعیت دانشجویان را برای مدرسین آنالیز کرده و گزارش کنند.
باید برای کاربرد هوش مصنوعی فرهنگسازی کنیم
دکتر مرادی در پاسخ به این پرسش «چگونه در برابر مقاومتها ایستادگی کنیم که خیلی از کشورهای پیشرفته عقب نمانیم؟» گفت: باید در این عرصه فرهنگسازی کنیم، باید نمونههایی تولید و استفاده شود. کشور امارات درنظر دارد از چت «جیبیتی» به عنوان کمک استاد استفاده کند چرا که چت جیپیتی میتواند پاسخهای خوبی به عنوان یک نظردهند ارائه دهد. بنابراین میتوان این امکان را فراهم کرد که ازهوش مصنوعی برای تسهیل کار استادی و معلمی استفاده کرد. اگر چنین شرایطی ایجاد شود با استفاده از یک تکنولوژی سودمند، کار خوبی انجام شده است. من بر این باور هستم، بهکارگیری چت جی پیتی به عنوان یک کمک استاد در کشور امارات یک کار بسیار جالب است چرا که آنها برای تولید یک تکنولوژی مشابه زمان صرف نکردهاند، چرا که تولید چت جیپیتی ، کار سادهای نیست و به هزینه و زمان زیادی احتیاج دارد.
این استاد دانشگاه ادامه داد: گاهی اوقات نسبت به استفاده نادرست از هوش مصنوعی و نسبت به اینکه سیستمهای هوشمند پاسخ پرسشها را بدهد و دانشجویان تقلب کنند، احساس خطر میکنیم. این امکان وجود دارد که از چت جیپیتی برای تولید مقاله یا جواب استفاده کنند و بدون کار اضافه ارائه دهند، که اصلا کار صحیحی نیست. اما اگر از این تکنولوژی برای تولید یک مقاله «نسخه صفر» استفاده شود و سپس دانشجویان روی آن کار کنند و نتایج کار خود را با ا ستفاده از سیستمهای هوشمند ارائه دهند، بسیار مطلوب است.
وی با بیان اینکه اگر بتوانیم از یک سیستم مشابه به چت جیپیتی استفاده کنیم، میتوانیم آموزش را در سطح وسیعی ارتقاء کیفیت دهیم. به بیان دیگر با استفاده از چنین سیستم هوشمندی میتوان در سطح وسیع به کمک معلمین و اساتید آمده و با آموزش در سطح مناسب طیف وسیعی از دانش آموزان و دانشجویان را پوشش دهیم. به بیان دیگر، استفاده از هوش مصنوعی میتواند در ایجاد عدالت آموزشی به ما کمک کند. با توجه به محدودیتها و بودجه نظام آموزشی، ایجاد عدالت آموزشی در شرایط کنونی و امکانات کنونی امکانپذیر نیست. لیکن، با استفاده از هوش مصنوعی میتوان تا حدی به اهداف عدالت آموزشی برسیم.
مدیرگروه هوش ماشین و رباتیک دانشگاه تهران با اشاره به تجربه آموزش مجازی در روزهای کرونایی گفت: ما در آموزش مجازی از منابع در دسترس مانند سیستمهای آموزش برخط (آنلاین) استفاده کردیم. عدم وجود چنین سیستمهایی، مخصوصا سیستمهای بومی، میتوانست به امر آموزش در دوره کرونا آسیب جدی وارد کند. لذا باید برای استفاده از هوش مصنوعی در آموزش آماده بود و ضمن فراهم آوردن ساختار مناسب، در این زمینه فرهنگسازی کرد.
این استاد دانشگاه گفت: مهم نیست که موضوع یا محتوای آموزشی چه مطلبی است. موضوع آموزشی میتواند جبر خطی یا علومشناختی باشد و تمام موارد میتواند بر بستر هوش مصنوعی ارائه شود.
آموزش هوش مصنوعی از مدرسه اهمیت دارد
این استاد دانشگاه ادامه داد: اگرچه هوش مصنوعی میتواند به اساتید کمک کند اما، در مقطع کنونی، انسانها را از وجود معلم یا استاد بینیاز نمیکند. اساتید با توجه به بازخوردهایی که از طریق هوش مصنوعی دریافت میکنند، میتوانند اقدامات بهتری انجام دهند و نتایج بهتر آموزشی داشته باشند.
دکتر مرادی با اشاره به امر آموزش هوش مصنوعی و اهمیت آموزش هوش مصنوعی از سطح مدرسه خاطرنشان کرد: تعدادی از کشورهای جهان، از جمله کره جنوبی و آلمان، به تدوین مباحث هوش مصنوعی در سطح مدارس پرداخته شده است. این اهمیت آموزش نسل آینده برای مواجهه با این تکنولوژی را گوشزد میکند.
انتهای پیام
منبع: ایسنا
کلیدواژه: هوش مصنوعی دانشگاه تهران پژوهشگاه رویان طرح جوانی جمعیت و حمایت از خانواده جهاد دانشگاهی دانشگاه تهران وزارت بهداشت کاظمی آشتیانی دانشگاه های علوم پزشکی پژوهشگاه رویان طرح جوانی جمعیت و حمایت از خانواده جهاد دانشگاهی استفاده از هوش مصنوعی هوش مصنوعی در آموزش هوش مصنوعی می تواند ایجاد عدالت آموزشی هوش مصنوعی می توان استاد دانشگاه سیستم های هوشمند وضعیت دانشجویان سیستم های هوش عرصه آموزش دانش آموزان آموزش سنتی چت جی پی تی شیوه آموزش امر آموزش سیستم ها کلاس درس یک سیستم
درخواست حذف خبر:
«خبربان» یک خبرخوان هوشمند و خودکار است و این خبر را بهطور اتوماتیک از وبسایت www.isna.ir دریافت کردهاست، لذا منبع این خبر، وبسایت «ایسنا» بوده و سایت «خبربان» مسئولیتی در قبال محتوای آن ندارد. چنانچه درخواست حذف این خبر را دارید، کد ۳۸۲۳۹۶۱۲ را به همراه موضوع به شماره ۱۰۰۰۱۵۷۰ پیامک فرمایید. لطفاً در صورتیکه در مورد این خبر، نظر یا سئوالی دارید، با منبع خبر (اینجا) ارتباط برقرار نمایید.
با استناد به ماده ۷۴ قانون تجارت الکترونیک مصوب ۱۳۸۲/۱۰/۱۷ مجلس شورای اسلامی و با عنایت به اینکه سایت «خبربان» مصداق بستر مبادلات الکترونیکی متنی، صوتی و تصویر است، مسئولیت نقض حقوق تصریح شده مولفان در قانون فوق از قبیل تکثیر، اجرا و توزیع و یا هر گونه محتوی خلاف قوانین کشور ایران بر عهده منبع خبر و کاربران است.
خبر بعدی:
چرا ارتشها نمیتواند به هوش مصنوعی اعتماد کند؟
فرارو- ژاکلین اشنایدر؛ پژوهشگر موسسه هوور در دانشگاه استنفورد است. او در موسسه هوور مدیر ابتکار عمل بازی و شبیه سازی بحران است.او یکی از افراد وابسته به مرکز امنیت و همکاری بینالمللی استنفورد است.تحقیقات اشنایدر بر حوزه تلاقی فناوری، امنیت ملی و روانشناسی سیاسی با علاقه ویژه نسبت به امنیت سایبری، فناوریهای خودمختار، مانورهای نظامی و شمال شرق آسیا متمرکز بوده است. اشنایدر در سال ۲۰۲۰ میلادی برنده جایزه پژوهشگران نوظهور پری ورلد هاوس شد.
به گزارش فرارو به نقل از فارن افرز، شرکت Open AI در سال ۲۰۲۲ میلادی از چت بات Chat GPT رونمایی کرد که از مدلهای زبانی بزرگ یا به اختصار LLMs برای تقلید از مکالمات انسانی و پاسخ به پرسشهای کاربران استفاده میکند. تواناییهای خارق العاده آن چت بات بحثی را در مورد نحوه استفاده از مدلهای زبانی بزرگ برای انجام کارهای دیگری از جمله جنگیدن در یک جنگ برانگیخت. برخی مانند مشاوران کمیته بین المللی صلیب سرخ هشدار داده اند که این قبیل فناوریها میتوانند تصمیم گیری انسانی را از حیاتیترین مسائل زندگی و مرگ حذف کنند.
وزارت دفاع ایالات متحده اکنون به طور جدی در حال بررسی کارهایی است که مئلهای زبانی بزرگ میتوانند برای ارتش انجام دهند. وزارت دفاع آمریکا در بهار ۲۰۲۲ میلادی دفتر اصلی هوش مصنوعی و دیجیتال را تأسیس کرد تا بررسی نماید که هوش مصنوعی چگونه میتواند به نیروهای مسلح کمک کند.
وزارت دفاع استراتژی خود را برای پذیرش فناوریهای مبتنی بر هوش مصنوعی در نوامبر ۲۰۲۳ میلادی منتشر کرد. آن گزارش با نگاهی خوش بینانه اشاره کرده بود که "تازهترین پیشرفتها در فناوریهای داده، تجزیه و تحلیل و هوش مصنوعی به رهبران این امکان را میدهد که از اتاق هیئت مدیره تا میدان جنگ سریعترین تصمیمات را اتخاذ کنند".
بر این اساس اکنون از فناوریهای مجهز به هوش مصنوعی استفاده میشود. برای مثال، نیروهای آمریکایی دارای سیستمهای مجهز به هوش مصنوعی برای هدف قرار دادن منافع انصارالله در خاورمیانه و شمال آفریقا بوده اند. نیروهای تفنگدار دریای ایالات متحده و نیروی هوایی آن کشور در حال آزمایش با مدلهای زبانی بزرگ هستند و از آن برای مانورهای جنگی، برنامه ریزی نظامی و وظایف اداری اساسی استفاده میکنند. Palantir شرکتی که فناوری اطلاعات را برای وزارت دفاع آمریکا توسعه میدهد محصولی ایجاد کرده که از مدلهای زبانی بزرگ برای مدیریت عملیات نظامی استفاده میکند. در همین حال، وزارت دفاع آمریکا یک کارگروه جدید برای بررسی استفاده از هوش مصنوعی مولد از جمله مدلهای زبانی بزرگ در ارتش ایالات متحده تشکیل داده است.
با این وجود، علیرغم اشتیاق نسبت به هوش مصنوعی و مدلهای زبانی بزرگ در پنتاگون رهبری آن نهاد نگران خطراتی است که این فناوریها ایجاد میکنند. اخیرا نیروی دریایی ایالات متحده دستورالعملی را منتشر کرده که استفاده از اپلیکیشنهای مبتنی بر مدلهای زبانی بزرگ را محدود کرده چرا که باور دارد این اپلیکیشنها دچار سوگیری و توهم میشوند و آسیب پذیری امنیتی را با انتشار ناخواسته اطلاعات حساس افزایش خواهند داد.
نتیجه تحقیقات من و همکاران ام نشان میدهند که این نگرانیها موجه هستند. مدلهای زبانی بزرگ میتوانند مفید باشند، اما پیش بینی اقدامات آن مدلها دشوار است و میتوانند تماسهای خطرناک را به شکلی تشدید شده افزایش دهند. بنابراین، ارتش باید محدودیتهایی را برای این فناوریها زمانی که برای تصمیم گیریهای پرمخاطره به ویژه در موقعیتهای جنگی استفاده میشود اعمال کند. مدلهای زبانی بزرگ کاربردهای زیادی در وزارت دفاع ایالات متحده دارند، اما برون سپاری انتخابهای پرمخاطب به ماشینها تصمیمی خطرناک است.
مشکلات آموزشیمدلهای زبانی بزرگ سیستمهای مبتنی بر هوش مصنوعی هستند که بر روی مجموعههای بزرگی از دادهها آموزش دیده اند که براساس آن چه قبلا نوشته شده متن یا یک کلمه در یک زمان تولید میکنند.
این فرآیند دو مرحله میباشد. اولین مرحله پیش آموزش است زمانی که مدلهای زبانی بزرگ از ابتدا آموزش داده میشوند و الگوهای اساسی موجود در یک مجموعه داده عظیم را بازتولید میکنند. برای انجام این کار مدل باید مقدار زیادی در مورد موضوعاتی از جمله گرامر، تداعیهای واقعی، تجزیه و تحلیل احساسات و ترجمه زبان را بیاموزد. مدلهای زبانی بزرگ بخش عمده مهارتهای خود را در طول دوره پیش آموزش توسعه میدهند، اما موفقیت آن مدلها به کیفیت، اندازه و تنوع دادههایی که مصرف میکنند بستگی دارد. به قدری متن مورد نیاز است که عملا غیرممکن میباشد که یک مدل زبانی بزرگ صرفا بر اساس دادههای با کیفیت بالا بررسی شود. این به معنای پذیرش دادههای با کیفیت پایین نیز میباشد. برای نیروهای مسلح یک مدل زبانی بزرگ نمیتواند تنها بر اساس دادههای نظامی آموزش ببیند و هنوز هم به اشکال عمومی بیش تری از اطلاعات از جمله دستور العمل ها، رمانهای عاشقانه، و مبادلات دیجیتالی روزانه که اینترنت را پر میکنند نیاز دارد.
با این وجود، پیش آموزش برای ساخت یک چت بات مفید یا یک دستیار فرماندهی و کنترل دفاعی کافی نیست. این بدان خاطر است که در مرحله اول مدلهای زبانی بزرگ استایلها و کاراکترهای مختلف نوشتاری را اتخاذ میکنند که همه آنها لزوما برای وظیفه در نظر گرفته شده برای آن مدل مناسب نیستند. مدلهای زبانی بزرگ پس از پیش آموزش ممکن است فاقد دانش خاص لازم مانند اصطلاحات تخصصی مورد نیاز برای پاسخ به پرسشها در مورد برنامههای نظامی باشند. به همین خاطر است که مدلهای زبانی بزرگ به تنظیم دقیق در مجموعه دادههای کوچکتر و خاصتر نیاز دارند.
در مرحله دوم توانایی مدلهای زبانی بزرگ برای ارتباط با کاربر با یادگیری نحوه تبدیل شدن به یک شریک مکالمه و دستیار بهبود بخشیده میشوند. روشهای مختلفی برای تنظیم دقیق وجود دارد، اما اغلب با ترکیب اطلاعات از فورومهای پشتیبانی آنلاین و هم چنین بازخورد انسانی انجام میشود تا اطمینان حاصل شود که خروجیهای مدلهای زبانی بزرگ با اولویتهای انسانی همسو هستند.
این فرآیند باید بین پیش آموزش اولیه مدلهای زبانی بزرگ با ملاحظات انسانی دقیقتر از جمله مفید یا مضر بودن پاسخها تعادل برقرار کند. ایجاد این تعادل دشوار است. برای مثال، یک چت بات که همواره از درخواستهای کاربر پیروی میکند مانند مشاوره در مورد نحوه ساخت بمب بی ضرر نیست، اما اگر اکثر درخواستهای کاربر را رد کند دیگر مفید نخواهد بود.
طراحان باید راهی برای فشرده سازی چکیدهها از جمله هنجارهای رفتاری و اخلاقیات در معیارهایی برای تنظیم دقیق پیدا کنند. برای انجام این کار محققان با مجموعه دادههایی که توسط انسانها مشروح شده کار را آغاز کرده و نمونههای تولید شده توسط مدلهای زبانی بزرگ را به طور مستقیم مقایسه کرده و انتخاب میکنند که کدام یک ارجح هستند. مدل زبانی دیگر یا مدل ترجیحی به طور جداگانه بر روی رتبه بندیهای انسانی نمونههای تولید شده توسط مدلهای زبانی بزرگ آموزش داده میشود تا به هر متن داده شده امتیازی مطلق در استفاده از آن برای انسان اختصاص دهد. سپس از مدل ترجیحی برای فعال کردن تنظیم دقیق مدلهای زبانی بزرگ اصلی استفاده میشود.
این رویکرد محدودیتهایی دارد. این که چه چیزی ارجح است بستگی به آن دارد که از چه کسی بپرسید و این که مدل با ترجیحات متضاد چگونه برخورد میکند. علاوه بر این، کنترل کمی بر روی قوانین اساسی که توسط مدلهای زبانی بزرگ در طول تنظیم دقیق آموخته میشود وجود دارد. این بدان خاطر است که نه مدلهای زبانی بزرگ و نه مدل ترجیحی برای تنظیم دقیق موضوعی را مستقیما یاد نمیگیرند بلکه تنها با نشان دادن نمونههایی از رفتار مطلوب در عمل میتوان آنها را آموزش داد و انسان امیدوار است که قوانین اساسی به اندازه کافی درونی شده باشند، اما هیچ گونه تضمینی وجود ندارد که چنین اتفاقی رخ دهد.
با این وجود، تکنیکهایی برای کاهش برخی از این مشکلات وجود دارد. برای مثال، برای غلبه بر محدودیتهای مجموعه دادههای کوچک و گران قیمت برچسب گذاری شده توسط انسان، مجموعه دادههای ترجیحی را میتوان با استفاده از یک مدل زبانی بزرگ برای تولید دادههای ترجیحی برچسب گذاری شده با هوش مصنوعی گسترش داد. رویکردهای جدیدتر حتی از قوانینی استفاده میکنند که توسط طراحان مدلهای زبانی بزرگ برای رفتارهای مناسب ترسیم شده است مانند پاسخ به نژادپرستی تا به طور بالقوه به مربیان مدل کنترلی درباره این که کدام قواعد در معیار ترجیحی مورد استفاده قرار میگیرند ایده بهتری بدهند.
پیش آموزش و تنظیم دقیق میتواند مدلهای زبانی بزرگ توانمندی را ایجاد کند، اما این فرآیند هنوز برای ایجاد جایگزینهای مستقیم برای تصمیم گیری انسانی کامل نیست. این بدان خاطر است که یک مدل زبانی بزرگ فارغ از آن که چه اندازه خوب تنظیم شده یا آموزش دیده صرفا میتواند رفتارهای خاصی را ترجیح دهد و قابلیت انتزاع ندارد و هم چنین نمیتواند مانند انسان استدلال کند. انسانها در محیطها تعامل دارند، مفاهیم را میآموزند و با استفاده از زبان با آن مفاهیم ارتباط برقرار میکنند.
این در حالیست که مدلهای زبانی بزرگ صرفا میتوانند زبان و استدلال را با انتزاع همبستگیها و مفاهیم از دادهها تقلید کنند. مدلهای زبانی بزرگ اغلب ممکن است به درستی ارتباطات انسانی را تقلید کنند، اما بدون توانایی درونی کردن و با توجه به اندازه عظیم مدل هیچ تضمینی وجود ندارد که انتخابهای آن مدلها ایمن یا اخلاقی باشد. بنابراین، نمیتوان به طور قابل اعتماد پیش بینی کرد که یک مدل زبانی بزرگ هنگام تصمیم گیریهای پرمخاطره چه خواهد کرد.
یک بازیگر خطرناکمئلهای زبانی بزرگ قادر هستند آن دسته از وظایف نظامی را انجام دهند که نیازمند پردازش مقادیر زیادی از دادهها در بازههای زمانی بسیار کوتاه میباشند بدان معنا که نظامیان ممکن است بخواهند از آن مدلها به منظور تقویت تصمیم گیری یا ساده سازی عملکردهای بوروکراتیک استفاده کنند. برای مثال، مدلهای زبانی بزرگ برای برنامه ریزی نظامی، فرماندهی و اطلاعات کاربرد خوبی دارند. آن مدلها میتوانند بسیاری از برنامه ریزیهای سناریو، مانورهای جنگی، بودجه بندی و آموزش را اتوماتیزه یا خودکار کنند. آن مدلها هم چنین قادر هستند برای ترکیب اطلاعات، تقویت پیش بینی تهدید و ایجاد توصیههای هدف استفاده شوند.
مدلهای زبانی بزرگ در طول جنگ یا بحران میتوانند از راهنماییهای موجود برای ارائه دستورات استفاده کنند حتی زمانی که ارتباط محدود یا حداقلی بین واحدها و فرماندهان آنها وجود دارد. شاید مهمتر از برای عملیات روزانه ارتش آن باشد که مدلهای زبانی بزرگ ممکن است بتوانند وظایف نظامی سخت گیرانه مانند سفر، تدارکات و ارزیابی عملکرد را خودکار کنند. با این وجود، حتی برای انجام این وظایف نیز موفقیت مدلهای زبانی بزرگ را نمیتوان تضمین کرد.
رفتار آن مدلها به ویژه در نمونههای نادر و غیرقابل پیش بینی میتواند نامنظم باشد و از آنجایی که هیچ دو مدل زبانی بزرگی در آموزش یا تنظیم دقیق خود دقیقا مشابه نیستند به طور منحصر بفردی تحت تاثیر ورودیهای کاربر قرار میگیرند. برای مثال، در یکی از بررسیها درباره مانورهای جنگی و سناریو سازی یکی از مدلهای زبانی بزرگ مورد آزمایش قرار گرفته توسط من و تیم پژوهشی ام سعی کرده بود با گشودن آتش بر روی رزمندگان دشمن و گرم کردن فضای جنگ سرد از تلفات یا برخورد دوستانه جلوگیری کند با این استدلال که استفاده از خشونت پیشگیرانه به احتمال زیاد از پیامد بد بحران جلوگیری میکند. مشکل در اینجا بود که مدل زبانی بزرگ تصمیمات خود را به گونهای اتخاذ کرد که پیچیدگی تصمیم گیری انسانی را بیان نمیکرد.
گفتگوهای ایجاد شده توسط مدل زبانی بزرگ بین بازیکنان اختلاف کمی داشت و شامل بیانیههای کوتاه واقعیت بود. این بسیار دور از استدلالهای عمیق بود که اغلب بخشی از مانورهای جنگی انسانی را شامل میشود.
تیم پژوهشی ما در پروژه تحقیقاتی متفاوتی نحوه رفتار مدلهای زبانی بزرگ در مدلهای جنگی شبیه سازی شده را مطالعه کرد. ما متوجه شدیم که مدلهای زبانی بزرگ براساس نسخه خود، دادههایی که در آن آموزش دیده اند و انتخابهایی که طراحان آن مدلها در هنگام تنظیم دقیق ترجیحات خود انجام داده اند متفاوت رفتار میکنند. علیرغم این تفاوتها ما متوجه شدیم که همه مدلهای زبانی بزرگ تشدید وضعیت را انتخاب کردند و مسابقات تسلیحاتی، درگیری و حتی استفاده از سلاحهای هستهای را ترجیح داده اند. حتی زمانی که یک مدل زبانی بزرگ که به خوبی تنظیم نشده بود را مورد آزمایش قرار دادیم منجر به اقدامات آشفته و استفاده از سلاحهای هستهای شد. استدلال مدل زبانی بزرگ این بود:"بسیاری از کشورها دارای سلاح هستهای هستند برخی فکر میکنند که باید آن تسلیحات را امحا کرد برخی دیگر دوست دارند آن تسلیحات را حفظ کنند. ما آن سلاح را داریم پس از آن استفاده میکنیم"!
سوء تفاهمهای خطرناکعلیرغم تمایل نظامیان به استفاده از مدلهای زبانی بزرگ و سایر ابزارهای تصمیم گیری مبتنی بر هوش مصنوعی محدودیتها و خطرات واقعی در این باره وجود دارد. ارتشهایی که برای تصمیم گیری به این فناوریها متکی هستند نیاز به درک بهتری از نحوه عملکرد مدل زبانی بزرگ و اهمیت تفاوت در طراحی و اجرای آن مدلها دارند. این امر مستلزم آموزش قابل توجه کاربر و توانایی ارزیابی منطقها و دادههای اساسی است که باعث میشود یک مدل زبانی بزرگ کار کند.
نظامیان باید بدانند که اساسا رفتار یک مدل زبانی بزرگ هرگز نمیتواند کاملا تضمین شود به ویژه زمانی که انتخابهای نادر و دشواری درباره تشدید تنش و جنگ انجام میدهند. این واقعیت بدان معنا نیست که ارتش نمیتواند از مدل زبانی بزرگ استفاده کند. برای مثال، مدلهای زبانی بزرگ را میتوان برای ساده سازی فرآیندهای داخلی مانند نوشتن خلاصههای کوتاه و گزارشها مورد استفاده قرار داد. هم چنین، میتوان از مدلهای زبانی بزرگ در کنار فرآیندهای انسانی از جمله مانورهای جنگی یا ارزیابیهای هدف گیری بهعنوان راههایی برای کشف سناریوها و دورههای عمل جایگزین استفاده کرد بدون آن که تصمیم گیری برای کاربرد یا عدم کاربرد خشونت را به آن مدل واگذار کنیم.