وبلاگ رسانگار
با ما حرفه ای باشید

سرور مجازی NVMe

چگونه هوش مصنوعی شبیه‌سازی‌ها را با تکنیک‌های نمونه‌گیری هوشمندانه‌تر بهبود می‌بخشد

0 0
زمان لازم برای مطالعه: 5 دقیقه


تصور کنید که وظیفه دارید تیمی از بازیکنان فوتبال را برای ارزیابی وضعیت چمن به زمین بفرستید (البته یک کار محتمل برای آنها). اگر موقعیت‌های آن‌ها را به‌طور تصادفی انتخاب کنید، ممکن است در برخی مناطق با هم جمع شوند در حالی که به‌طور کامل از برخی دیگر غافل شوند. اما اگر به آنها استراتژی بدهید، مانند پخش یکنواخت در زمین، ممکن است تصویر بسیار دقیق تری از وضعیت چمن به دست آورید.

حال، تصور کنید که نیاز به گسترش نه تنها در دو بعد، بلکه در ده‌ها یا حتی صدها دارید. این چالشی است که محققان آزمایشگاه علوم کامپیوتر و هوش مصنوعی MIT (CSAIL) در حال پیشروی هستند. آنها یک رویکرد مبتنی بر هوش مصنوعی برای «نمونه‌گیری با اختلاف کم» ایجاد کرده‌اند، روشی که دقت شبیه‌سازی را با توزیع یکنواخت نقاط داده در فضا بهبود می‌بخشد.

یک نوآوری کلیدی در استفاده از شبکه‌های عصبی گراف (GNN) نهفته است، که به نقاط اجازه می‌دهد “ارتباط” کنند و برای یکنواختی بهتر بهینه‌سازی شوند. رویکرد آنها یک پیشرفت محوری برای شبیه‌سازی در زمینه‌هایی مانند رباتیک، امور مالی، و علوم محاسباتی، به ویژه در رسیدگی به مسائل پیچیده و چند بعدی که برای شبیه‌سازی دقیق و محاسبات عددی حیاتی است، نشان می‌دهد.

T. Konstantin Rusch، نویسنده اصلی مقاله جدید و MIT CSAIL می‌گوید: «در بسیاری از مشکلات، هرچه بتوانید نقاط را به طور یکنواخت‌تر پخش کنید، می‌توانید سیستم‌های پیچیده را با دقت بیشتری شبیه‌سازی کنید. ما روشی به نام پیام مونت کارلو (MPMC) برای ایجاد نقاط با فاصله یکنواخت، با استفاده از تکنیک‌های یادگیری عمیق هندسی، ایجاد کرده‌ایم. این بیشتر به ما امکان می دهد نقاطی را ایجاد کنیم که بر ابعادی تأکید می کنند که به ویژه برای یک مشکل در دست مهم هستند، ویژگی که در بسیاری از کاربردها بسیار مهم است. شبکه‌های عصبی گراف زیربنایی مدل به نقاط اجازه می‌دهد با یکدیگر صحبت کنند و به یکنواختی به مراتب بهتر از روش‌های قبلی دست می‌یابند.

کار آنها در شماره سپتامبر نشریه منتشر شد مجموعه مقالات آکادمی ملی علوم.

مرا به مونت کارلو ببرید

ایده روش‌های مونت کارلو یادگیری در مورد یک سیستم با شبیه‌سازی آن با نمونه‌گیری تصادفی است. نمونه گیری انتخاب زیرمجموعه ای از یک جامعه برای برآورد ویژگی های کل جامعه است. از نظر تاریخی، قبلاً در قرن 18 استفاده می شد، زمانی که ریاضیدان پیر سیمون لاپلاس از آن برای تخمین جمعیت فرانسه بدون نیاز به شمارش هر فرد استفاده کرد.

توالی های کم اختلاف که توالی هایی با اختلاف کم، یعنی یکنواختی بالا هستند، مانند Sobol’، Halton و Niederreiter، از دیرباز استاندارد طلایی برای نمونه گیری شبه تصادفی بوده که نمونه گیری تصادفی را با نمونه گیری با اختلاف کم مبادله می کند. آنها به طور گسترده در زمینه هایی مانند گرافیک کامپیوتری و امور مالی محاسباتی، برای همه چیز از گزینه های قیمت گذاری گرفته تا ارزیابی ریسک، که در آن پر کردن یکنواخت فضاها با امتیاز می تواند منجر به نتایج دقیق تری شود، استفاده می شود.

پیشنهاد می‌کنیم بخوانید:  محققان MIT از مدل های زبان بزرگ برای علامت گذاری مشکلات در سیستم های پیچیده استفاده می کنند

چارچوب MPMC پیشنهاد شده توسط تیم، نمونه های تصادفی را به نقاطی با یکنواختی بالا تبدیل می کند. این کار با پردازش نمونه‌های تصادفی با یک GNN انجام می‌شود که اندازه‌گیری اختلاف خاص را به حداقل می‌رساند.

یکی از چالش‌های بزرگ استفاده از هوش مصنوعی برای ایجاد نقاط بسیار یکنواخت این است که روش معمول برای اندازه‌گیری یکنواختی نقطه بسیار کند محاسبه می‌شود و کار با آن سخت است. برای حل این مشکل، تیم به یک اندازه گیری یکنواختی سریعتر و انعطاف پذیرتر به نام اختلاف L2 روی آورد. برای مشکلات با ابعاد بالا که این روش کافی نیست روی آنها از تکنیک جدیدی استفاده می کنند که تمرکز دارد روی پیش بینی های مهم با ابعاد پایین تر از نقاط. به این ترتیب، آنها می توانند مجموعه های نقطه ای را ایجاد کنند که برای برنامه های خاص مناسب تر هستند.

این تیم می گوید که پیامدها بسیار فراتر از دانشگاه است. برای مثال، در امور مالی محاسباتی، شبیه سازی ها به شدت متکی هستند روی کیفیت نقاط نمونه برداری Rusch می گوید: با این نوع روش ها، نقاط تصادفی اغلب ناکارآمد هستند، اما نقاط اختلاف کم تولید شده توسط GNN ما منجر به دقت بالاتری می شود. به عنوان مثال، ما یک مشکل کلاسیک از امور مالی محاسباتی را در 32 بعد در نظر گرفتیم، جایی که نقاط MPMC ما با ضریب چهار تا 24 بر روش‌های نمونه‌گیری شبه تصادفی پیشرفته قبلی برتری داشت.

ربات ها در مونت کارلو

در رباتیک، برنامه ریزی مسیر و حرکت اغلب متکی است روی الگوریتم‌های مبتنی بر نمونه‌برداری، که ربات‌ها را از طریق فرآیندهای تصمیم‌گیری بلادرنگ هدایت می‌کنند. یکنواختی بهبود یافته MPMC می تواند منجر به ناوبری رباتیک کارآمدتر و سازگاری در زمان واقعی برای مواردی مانند رانندگی خودکار یا فناوری هواپیماهای بدون سرنشین شود. راش می‌گوید: «در واقع، در یک پیش‌چاپ اخیر، نشان دادیم که نقاط MPMC ما نسبت به روش‌های قبلی با اختلاف کم نسبت به مشکلات برنامه‌ریزی حرکت رباتیک در دنیای واقعی، چهار برابر پیشرفت می‌کنند.»

دانیلا روس، CSAIL می‌گوید: سکانس‌های سنتی با اختلاف کم پیشرفت بزرگی در زمان خود بودند، اما جهان پیچیده‌تر شده است، و مشکلاتی که اکنون در حال حل آن هستیم اغلب در فضاهای 10، 20 یا حتی 100 بعدی وجود دارد. مدیر و استاد MIT مهندسی برق و علوم کامپیوتر. ما به چیزی هوشمندتر نیاز داشتیم، چیزی که با رشد ابعاد سازگار شود. GNN ها یک تغییر پارادایم در روش تولید مجموعه نقاط با اختلاف کم هستند. برخلاف روش‌های سنتی، که نقاط به‌طور مستقل تولید می‌شوند، GNN‌ها به نقاط اجازه می‌دهند با یکدیگر «چت» کنند، بنابراین شبکه یاد می‌گیرد که نقاط را به‌گونه‌ای قرار دهد که خوشه‌بندی و شکاف‌ها را کاهش دهد – مسائل رایج با رویکردهای معمولی.

پیشنهاد می‌کنیم بخوانید:  جملات پیچیده و ناآشنا باعث می شود شبکه زبانی مغز سخت تر کار کند

در آینده، این تیم قصد دارد نقاط MPMC را حتی برای همه قابل دسترس‌تر کند و محدودیت فعلی آموزش GNN جدید برای هر تعداد ثابت و ابعاد ثابت را برطرف کند.

آرت بی اوون، استاد آمار دانشگاه استنفورد که در این تحقیق شرکت نداشت، می‌گوید: «بسیاری از ریاضیات کاربردی از مقادیر پیوسته متغیر استفاده می‌کنند، اما محاسبات معمولاً به ما اجازه می‌دهد که فقط از تعداد محدودی از نقاط استفاده کنیم. میدان مغایرت بیش از یک قرن از جبر انتزاعی و نظریه اعداد برای تعریف نقاط نمونه گیری موثر استفاده می کند. این مقاله از شبکه‌های عصبی نمودار برای یافتن نقاط ورودی با اختلاف کم در مقایسه با توزیع پیوسته استفاده می‌کند. این رویکرد در حال حاضر بسیار نزدیک به شناخته شده ترین مجموعه نقاط اختلاف کم در مسائل کوچک است و نوید بزرگی را برای یک انتگرال 32 بعدی از امور مالی محاسباتی نشان می دهد. می‌توان انتظار داشت که این اولین تلاش برای استفاده از روش‌های عصبی برای یافتن نقاط ورودی خوب برای محاسبات عددی باشد.»

راش و روس این مقاله را با ناتان کرک، محقق دانشگاه واترلو، پروفسور هوش مصنوعی عمیق در دانشگاه آکسفورد و مایکل برونشتاین وابسته سابق CSAIL و پروفسور کریستیانه لمیوکس، استاد آمار و علم اکچوئری دانشگاه واترلو نوشتند. تحقیقات آنها تا حدی توسط برنامه AI2050 در Schmidt Futures، Boeing، آزمایشگاه تحقیقاتی نیروی هوایی ایالات متحده و شتاب دهنده هوش مصنوعی نیروی هوایی ایالات متحده، بنیاد ملی علوم سوئیس، شورای تحقیقات علوم طبیعی و مهندسی کانادا، پشتیبانی شد. و EPSRC Turing AI کمک هزینه تحقیقاتی پیشرو در جهان.


منبع: https://news.mit.edu/1403/how-ai-improving-simulations-smarter-sampling-techniques-1002

برای نگارش بخشهایی از این متن ممکن است از ترجمه ماشینی یا هوش مصنوعی GPT استفاده شده باشد
لطفا در صورت وجود مشکل در متن یا مفهوم نبودن توضیحات، از طریق دکمه گزارش نوشتار یا درج نظر روی این مطلب ما را از جزییات مشکل مشاهده شده مطلع کنید تا به آن رسیدگی کنیم

زمان انتشار: 1403-10-03 09:37:09

امتیاز شما به این مطلب
دیدگاه شما در خصوص مطلب چیست ؟

آدرس ایمیل شما منتشر نخواهد شد.

لطفا دیدگاه خود را با احترام به دیدگاه های دیگران و با توجه به محتوای مطلب درج کنید