از طریق منوی جستجو مطلب مورد نظر خود در وبلاگ را به سرعت پیدا کنید
چگونه تقارن می تواند به کمک یادگیری ماشین بیاید
بهروز طهماسبی – دانشجوی دکترای MIT در گروه مهندسی برق و علوم کامپیوتر (EECS) و وابسته به آزمایشگاه علوم کامپیوتر و هوش مصنوعی (CSAIL) – در حال گذراندن دوره ریاضی بود. روی معادلات دیفرانسیل در اواخر سال 2021 زمانی که بارقه ای از الهام ظاهر شد. در آن کلاس، او برای اولین بار در مورد قانون ویل که 110 سال قبل توسط ریاضیدان آلمانی هرمان ویل فرموله شده بود، آشنا شد. طهماسبی متوجه شد که ممکن است با مشکل علوم کامپیوتری که در آن زمان با آن دست به گریبان بود، ارتباط داشته باشد، حتی اگر این ارتباط ظاهر شد – روی سطح – در بهترین حالت نازک بودن. او میگوید قانون ویل فرمولی را ارائه میکند که پیچیدگی اطلاعات طیفی یا دادههای موجود در فرکانسهای اساسی یک سر درام یا سیم گیتار را اندازهگیری میکند.
طهماسبی در همان زمان به اندازهگیری پیچیدگی دادههای ورودی به یک شبکه عصبی فکر میکرد و به این فکر میکرد که آیا میتوان این پیچیدگی را با در نظر گرفتن برخی از تقارنهای ذاتی مجموعه داده کاهش داد. چنین کاهشی به نوبه خود میتواند فرآیندهای یادگیری ماشین را تسهیل کند – و همچنین سرعت بخشد.
قانون ویل که حدود یک قرن قبل از رونق یادگیری ماشین تصور شد، به طور سنتی در موقعیتهای فیزیکی بسیار متفاوت اعمال میشد – مانند موقعیتهای مربوط به ارتعاشات یک رشته یا طیف تشعشعات الکترومغناطیسی (جسم سیاه) که توسط یک جسم گرم شده منتشر میشود. . با این وجود، طهماسبی معتقد بود که نسخه سفارشیشده آن قانون ممکن است به مشکل یادگیری ماشینی که او دنبال میکرد کمک کند. و اگر این رویکرد به نتیجه برسد، بازده قابل توجهی خواهد بود.
او با مشاور خود، استفانی جگلکا – دانشیار در EECS و وابسته به CSAIL و موسسه MIT برای دادهها، سیستمها و جامعه – صحبت کرد که معتقد بود این ایده قطعا ارزش بررسی دارد. همانطور که طهماسبی دید، قانون ویل باید با سنجش پیچیدگی داده ها سر و کار داشته باشد و این پروژه نیز همینطور. اما قانون ویل، در شکل اصلی خود، چیزی در مورد تقارن نگفته است.
او و جگلکا اکنون در اصلاح قانون ویل موفق شده اند تا بتوان تقارن را در ارزیابی پیچیدگی یک مجموعه داده لحاظ کرد. طهماسبی میگوید: «تا جایی که من میدانم، این اولین باری است که قانون ویل برای تعیین اینکه چگونه یادگیری ماشین را میتوان با تقارن تقویت کرد، استفاده میشود.»
مقاله ای که او و جگلکا نوشتند، زمانی که در کنفرانس دسامبر 1402 ارائه شد، عنوان “اسپوت لایت” را به خود اختصاص داد. روی سیستم های پردازش اطلاعات عصبی – به طور گسترده به عنوان کنفرانس برتر جهان در نظر گرفته می شود روی فراگیری ماشین.
Soledad Villar، ریاضیدان کاربردی در دانشگاه جانز هاپکینز، اظهار داشت: این کار نشان میدهد که مدلهایی که تقارنهای مسئله را برآورده میکنند، نه تنها درست هستند، بلکه میتوانند با استفاده از مقدار کمی از نکات آموزشی، پیشبینیهایی با خطاهای کوچکتر ایجاد کنند. [This] به ویژه در حوزه های علمی، مانند شیمی محاسباتی، که در آن داده های آموزشی ممکن است کمیاب باشد، مهم است.
طهماسبی و جگلکا در مقاله خود راههایی را بررسی کردند که در آن تقارنها، یا به اصطلاح «بیتغییرها» میتوانند برای یادگیری ماشین مفید باشند. برای مثال، فرض کنید هدف یک کامپیوتر خاص، انتخاب هر تصویری است که شامل عدد 3 است. اگر الگوریتم بتواند 3 را بدون توجه به جایی که در آن قرار دارد، شناسایی کند، این کار میتواند بسیار سادهتر و سریعتر انجام شود. در جعبه قرار می گیرد – خواه دقیقاً در مرکز باشد یا در کنار – و خواه به سمت راست به سمت بالا، وارونه یا با زاویه تصادفی جهت گیری شده باشد. یک الگوریتم مجهز به قابلیت دوم میتواند از تقارنهای ترجمه و چرخش استفاده کند، به این معنی که یک 3 یا هر جسم دیگری با تغییر موقعیت خود یا چرخش آن حول یک محور دلخواه به خودی خود تغییر نمیکند. گفته می شود که نسبت به آن تغییرات ثابت است. همین منطق را میتوان برای الگوریتمهایی که با شناسایی سگها یا گربهها کار میکنند، اعمال کرد. شاید بتوان گفت سگ سگ است، صرف نظر از اینکه چگونه در یک تصویر جاسازی شده است.
نویسندگان توضیح میدهند که هدف کل تمرین، بهرهبرداری از تقارنهای ذاتی مجموعه داده به منظور کاهش پیچیدگی وظایف یادگیری ماشین است. این به نوبه خود می تواند منجر به کاهش مقدار داده های مورد نیاز برای یادگیری شود. به طور مشخص، کار جدید به این سوال پاسخ میدهد: اگر دادهها دارای تقارن باشند، چند داده کمتر برای آموزش یک مدل یادگیری ماشین لازم است؟
دو راه برای دستیابی به سود یا منفعت با سرمایه گذاری وجود دارد روی تقارن های موجود اولی مربوط به اندازه نمونه ای است که باید به آن نگاه کرد. بیایید تصور کنیم که برای مثال، شما با تجزیه و تحلیل تصویری که دارای تقارن آینهای است، متهم شدهاید – سمت راست یک کپی دقیق یا تصویر آینهای از سمت چپ است. در این صورت، لازم نیست به هر پیکسل نگاه کنید. شما می توانید تمام اطلاعات مورد نیاز خود را از نیمی از تصویر به دست آورید – دو ضریب بهبود. اگر، روی از سوی دیگر، تصویر را می توان به 10 قسمت یکسان تقسیم کرد، می توانید ضریب 10 بهبود را دریافت کنید. این نوع اثر تقویتی خطی است.
برای مثال دیگر، تصور کنید که یک مجموعه داده را غربال میکنید و سعی میکنید دنبالههایی از بلوکها را بیابید که هفت رنگ مختلف دارند – سیاه، آبی، سبز، بنفش، قرمز، سفید و زرد. اگر به ترتیب چیدمان بلوک ها اهمیتی ندهید، کار شما بسیار آسان تر می شود. اگر سفارش مهم بود، 5040 ترکیب مختلف برای جستجو وجود داشت. اما اگر تنها چیزی که به آن اهمیت میدهید توالیهایی از بلوکها هستند که در آن هر هفت رنگ ظاهر میشوند، پس تعداد چیزها – یا دنبالههایی – را که جستجو میکنید از 5040 به تنها یک کاهش دادهاید.
طهماسبی و جگلکا کشف کردند که می توان به نوع دیگری از سود دست یافت – سودی که نمایی است – که می تواند برای تقارن هایی که در ابعاد مختلف عمل می کنند به دست آورد. این مزیت به این مفهوم مربوط می شود که پیچیدگی یک کار یادگیری به طور تصاعدی با ابعاد فضای داده افزایش می یابد. بنابراین استفاده از یک تقارن چند بعدی می تواند بازدهی نامتناسب زیادی را به همراه داشته باشد. طهماسبی میگوید: «این یک مشارکت جدید است که اساساً به ما میگوید که تقارنهای بعد بالاتر مهمتر هستند، زیرا میتوانند به ما سودی تصاعدی بدهند.»
مقاله NeurIPS 1402 که او با جگلکا نوشت شامل دو قضیه است که به صورت ریاضی ثابت شده اند. طهماسبی میگوید: «قضیه اول نشان میدهد که بهبود پیچیدگی نمونه با الگوریتم کلی که ارائه میکنیم قابل دستیابی است. او اضافه کرد که قضیه دوم تکمیل کننده قضیه اول است، “نشان می دهد که این بهترین سود ممکن است که می توانید بدست آورید. هیچ چیز دیگری قابل دستیابی نیست.»
او و جگلکا فرمولی ارائه کرده اند که سودی را که می توان از یک تقارن خاص در یک کاربرد معین به دست آورد، پیش بینی می کند. طهماسبی خاطرنشان می کند که یک حسن این فرمول عمومیت آن است. “این برای هر تقارن و هر فضای ورودی کار می کند.” این نه تنها برای تقارن هایی که امروزه شناخته شده اند کار می کند، بلکه می تواند در آینده برای تقارن هایی که هنوز کشف نشده اند نیز به کار رود. با توجه به اینکه جستوجوی تقارنهای جدید مدتهاست که یک محور اصلی در فیزیک بوده است، دورنمای دوم چندان دور از ذهن نیست. این نشان میدهد که با یافتن تقارنهای بیشتر، روششناسی معرفیشده توسط طهماسبی و جگلکا باید با گذشت زمان بهتر شود.
به گفته Haggai Maron، دانشمند کامپیوتر در Technion (موسسه فناوری اسرائیل) و NVIDIA که در این کار دخالتی نداشت، رویکرد ارائه شده در مقاله «به طور قابل توجهی از کارهای قبلی مرتبط، اتخاذ یک دیدگاه هندسی و استفاده از ابزارهای متفاوت متفاوت است. هندسه. این مشارکت نظری به زیرشاخه نوظهور «یادگیری عمیق هندسی» که کاربردهایی در یادگیری نمودار، دادههای سه بعدی و موارد دیگر دارد، پشتیبانی ریاضی میکند. این مقاله به ایجاد یک مبنای نظری برای هدایت پیشرفتهای بیشتر در این حوزه تحقیقاتی که به سرعت در حال گسترش است، کمک میکند.
منبع: https://news.mit.edu/1403/how-symmetry-can-aid-machine-learning-0205
لطفا در صورت وجود مشکل در متن یا مفهوم نبودن توضیحات، از طریق دکمه گزارش نوشتار یا درج نظر روی این مطلب ما را از جزییات مشکل مشاهده شده مطلع کنید تا به آن رسیدگی کنیم
زمان انتشار: 1403-02-06 06:29:06