|
پژوهش فیزیک ایران، جلد ۲۵، شماره ۱، صفحات ۰-۰
|
|
|
عنوان فارسی |
یادگیری ماشینی فیزیکمحور چیست و چرا اهمیت دارد؟ |
|
چکیده فارسی مقاله |
در دهههای اخیر، یادگیری ماشینی[1] به یکی از ابزارهای قدرتمند برای تحلیل دادهها و ساخت مدلهای پیشبینی در علوم مختلف تبدیل شده است. با این حال، زمانی که صحبت از مدلسازی سامانههای فیزیکی پیچیده مانند دینامیک سیالات، رفتار مواد، فیزیک ذرات، یا سامانههای مولکولی به میان میآید، یادگیری ماشینی سنتی با چالشهایی جدی مواجه میشود. در اینجا، مفهوم یادگیری ماشینی فیزیکمحور[2] وارد صحنه میشود. یادگیری ماشینی فیزیکمحور روشی است که در آن، دانش قبلی ما از قوانین فیزیکی – مانند معادلات دیفرانسیل، اصول پایستگی، تقارنها و شرایط مرزی – در فرایند آموزش مدلهای یادگیری ماشینی گنجانده میشود. این رویکرد به ما اجازه میدهد که مدلهایی دقیقتر، قابل اعتمادتر و کارامدتر بسازیم؛ به ویژه در شرایطی که دادههای موجود محدود، پراکنده یا تهیۀ آنها پرهزینه باشند. در مدلسازیهای کلاسیک، صرفاً به دادهها تکیه میکنیم (مدلهای دادهمحور)، یا تنها از معادلات فیزیکی استفاده میکنیم (مدلهای تحلیلی یا عددی). اما یادگیری ماشینی فیزیکمحور تلاش میکند پلی میان این دو رویکرد ایجاد کند: ترکیب قدرت تعمیم یادگیری ماشین با قوانین فیزیک. برای مثال، اگر سامانهای مانند آونگ را در نظر بگیریم، یادگیری ماشین میتواند صرفاً از دادههای حرکتی آونگ، الگوی حرکت را یاد بگیرد. اما اگر معادلۀ حرکت آونگ (مثلاً معادلۀ لاگرانژ یا معادله دیفرانسیل مرتبۀ دوم) را نیز وارد مدل کنیم، میتوانیم با دادههای بسیار کمتر، مدل دقیقتری بسازیم. این مدل نهتنها بازسازی دقیقی از رفتار سامانه دارد، بلکه به اصول فیزیکی نیز پایبند است و نسبت به مدل یادگیری ماشینی سنتی که دادههای ورودی را بازسازی میکند، توانایی پیشبینی بیشتری از رفتار سامانه دارد. اجازه دهید دقیقتر به این پرسش جواب دهیم که منظور از یادگیری ماشینی فیزیکمحور چیست؟ یک آونگ را که به راست و چپ حرکت میکند، درنظر میگیریم. میتوان یک شتابسنج کوچک و یک LED روی نوک آن قرار دارد، بنابراین میتوانیم از آن فیلم بگیریم. در یادگیری ماشینی سنتی، ممکن است ویدئوی این آونگ به کار برده شود و از یک شبکۀ عصبی خودکدگذار[3] برای کاهش ابعاد این ویدئو به یک حالت نهفتۀ[4] کمبعد استفاده شود. این حالت کمبعد به شما امکان میدهد ویدئو را از همان متغیرهای محدود بازسازی کنید. لازم به توضیح است که خودکدگذار یک مدل شبکۀعصبی است که به صورت غیرنظارتی[5] آموزش داده میشود و هدف اصلی آن، کاهش ابعاد دادهها و یا یادگیری نمایش فشرده و مفید از دادههای ورودی است. ساختار خودکدگذار معمولاً از دو بخش اصلی تشکیل شده، کدگذار[6] این بخش ورودی را میگیرد و آن را به یک فضای با بعد کمتر تبدیل میکند (یعنی یک نمایش فشردهتر از دادۀ اصلی) ، کدگشای[7] این بخش تلاش میکند از نمایش فشردۀ تولید شده، دادۀ اصلی را دوباره بازسازی کند. حال به مسئلۀ آونگ ساده برگردیم. میدانیم که این یک سامانۀ کمبعد است واحتمالاً با متغیرهایی مانند زاویه (θ) وسرعت زاویهای توصیف میشود. یادگیری ماشینی ساده ممکن است فقط سعی کند مختصاتی را پیدا کند که بتوان دادهها را به آن فشرده کرد و سپس دوباره به ویدئوی کامل بازگرداند. اما یادگیری ماشینی فیزیکمحور کمی پیچیدهتر عمل میکند: ما نه تنها میخواهیم مختصاتی برای فشردهسازی ویدئو یاد بگیریم، بلکه میخواهیم یک معادله دیفرانسیل برای تحول این مختصات در زمان نیز فرا بگیریم، چیزی شبیه به معادلۀ آونگ میرا. این معادله را میتوان به دو روش در نظر گرفت: اگر از قبل معادله را میدانستیم، میتوانستیم آن را در حالت نهفته[8] بگنجانیم تا مختصات بهتری یاد بگیریم. یا میتوانستیم سعی کنیم این معادله دیفرانسیل را فقط از دادههای اندازهگیری شده استخراج کنیم. در این مثال، دو جزء کلیدی وجود دارد: اولاً، باید یک سامانۀ مختصاتی خوب مانند θ پیدا کنیم که حرکت آونگ را به خوبی توصیف کند. توجه کنید θ بهتر از مختصات x و y نوک آونگ است. ثانیاً، باید معادلات حرکت را یاد بگیریم؛ یعنی یک معادله دیفرانسیل که تحول سامانه در زمان را توصیف کند. این همان چیزی است که معمولاً از یادگیری ماشینی فیزیکمحور انتظار داریم: یادگیری مختصات مناسب و قوانین فیزیکی حاکم (که اغلب معادلات دیفرانسیل هستند). این قوانین را میتوان یا از دادهها یاد گرفت یا از قبل در مدل یادگیری ماشینی گنجاند. حالا میخواهیم کمی کلیتر بحث کنیم و مراحل پنجگانۀ ساخت یک مدل یادگیری ماشینی کلاسیک را بررسی کنیم. این پنج مرحله عبارتند از:
1) تعریف مسئله: تصمیم میگیریم چه چیزی را مدل کنیم (ورودیها و خروجیها چه هستند؟).
2) جمعآوری و تنظیم دادهها: دادههای آموزشی را جمعآوری میکنیم.
3) طراحی معماری: یک معماری مناسب (مثلاً یک شبکۀ عصبی خاص) انتخاب میکنیم.
4) تعریف تابع هزینه: معیاری برای سنجش عملکرد مدل طراحی میکنیم.
5) بهینهسازی: پارامترهای مدل را تنظیم میکنیم تا تابع هزینه کمینه شود. در هر یک از این مراحل، میتوانیم فیزیک را به فرایند یادگیری ماشینی اضافه کنیم. مثلاً: در مرحلۀ 1، اگر سامانۀ فیزیکی مانند آونگ را مدل میکنیم، خود مسئله فیزیکمحور است. در مرحلۀ 2، اگر دادهها از یک سامانۀ فیزیکی گرفته شده باشند، فیزیک در دادهها نهفته است. در مرحلۀ 3، میتوانیم معماریهایی مانند شبکههای عصبی لاگرانژی[9] را انتخاب کنیم که قوانین پایستگی انرژی را رعایت میکنند. در مرحلۀ 4، میتوانیم تابع هزینه را طوری طراحی کنیم که معادلات فیزیکی (مثلاً معادلات ناویر-استوکس) را به عنوان یک جملۀ تنظیمکننده[10] شامل شود. برای این کار قوانین فیزیکی با مضارب لاگرانژی به تابع هزینه اضافه میشوند. در مرحلۀ 5، میتوانیم از روشهای بهینهسازی استفاده کنیم که محدودیتهای فیزیکی را دقیقاً رعایت کنند. یکی از مفاهیم کلیدی در اینجا تقارنها [11]است. بسیاری از سامانههای فیزیکی تقارنهایی مانند انتقالی[12] یا چرخشی[13] دارند. اگر این تقارنها را در مدل خود بگنجانیم، عملکرد مدل بهبود مییابد. یادگیری ماشینی فیزیکمحور کاربردهایی وسیعی در علوم و مهندسی، مانند مدلسازی جریان سیالات، بهینهسازی شکل آیرودینامیکی، و طراحی مواد پیشرفته دارد. همچنین، سامانههای معیار[14] و معماریهای مختلف مانند شبکههای عصبی باقیمانده[15]، شبکههای عصبی فوریه[16]، و مدلهای پارسیمونی[17] مانند ارائه شدهاند . هدف نهایی این است که از حالت آزمون و خطای بینظم به سمت یک روش سیستماتیک و مبتنی بر اصول فیزیکی حرکت کنیم. گرداوری دادههای فیزیکمحور چه دادههایی را باید استفاده کنیم؟ اگر دادهها از یک سامانۀ فیزیکی گرفته شده باشند، ذاتاً فیزیک را در فرایند جمعآوری دادهها جاسازی کردهایم. مرحلۀ دوم، روش جامع برای گنجاندن فیزیک در مدل است. ایده این است که اگر دادههای کافی از جهان طبیعی جمعآوری کنید، مدل ناچار است فیزیک را یاد بگیرد، مثلاً F=ma یا حتیE=mc²، تا بتواند همه آن دادههای جمعآوری شده را با هم تطبیق دهد. اما دلیل این که روش فوق را شبیه به رویکرد جامع مینامند این است که بسیار پرهزینه است و به حجم تقریباً نامحدودی از داده نیاز دارد. دانشمندان و مهندسان، اغلب چنین امکانی ندارند و معمولاً با مجموعۀ دادۀ محدود و هدفمند کار میکنند که باید از آنها برای یادگیری فیزیکی استفاده کنند و به صورت گستردهتری قابل تعمیم باشند. مثلاً، آیا میخواهیم از میدانهای جریان سیال به عنوان دادۀ آموزشی استفاده کنیم؟ آیا این دادهها را در سرعتهای مختلف جریان جمعآوری کردهایم؟ اگر مدل فقط یک سرعت جریان را داشته باشد، با مدلی که محدودهای از سرعتها را پوشش میدهد، بسیار متفاوت خواهد بود و این بر نوع فیزیکی که مدل یاد میگیرد، تأثیر میگذارد. مثال دیگر: اگر دادههای جریان سیال ژئوفیزیکی داشته باشیم (مثلاً تشکیل ابر در اطراف یک سد)، یکی از کارهایی که میتوانیم در فرایند گرداوری داده انجام دهیم این است که اگر فکر میکنیم فیزیک سامانه به چرخش یا انتقال وابسته نیست (یعنی تحت تقارنهایی مانند انتقال یا چرخش ناوردا است)، میتوانیم دادهها را با نمونههای چرخشیافته یا انتقالیافته تکمیل کنیم. این یک روش بسیار رایج است. اگر سامانه مورد بررسی نوعی تقارن یا ناوردایی دارد (که خود شکلی از فیزیک است)، میتوانید دادهها را به گونهای تغییر دهید که این تقارنها را شامل شود. مثلاً اگر یک طبقهبند میسازیم که باید بتواند تصویر یک سگ را از تصویر یک گربه تشخیص دهد، میتوانیم تصاویر را بچرخانیم، جابهجا کنیم یا مقیاسدهی کنیم، چون این تغییرات نباید روی نتیجۀ طبقهبندی تأثیر بگذارند. بنابراین میتوانیم دادهها را به گونهای تکمیل کنیم که این ناورداییها را شامل شود. نکتۀ دیگری که زیاد با آن روبرو خواهیم شد این است که مختصات معمولاً در یادگیری ماشینی سامانههای فیزیکی اهمیت زیادی دارند. مثال های متفاوتی در فیزیک، به خصوص در مکانیک و الکترومغناطیس وجود دارد که برتری یک دستگاه مختصات را به دستگاه مختصات دیگر نشان میدهد. برای نمونه، دو سامانۀ مختصات مختلف برای سیارات و خورشید و زمین را در نظر بگیرید. یکی از سامانهها دید زمینمرکزی است که از دیدگاه ما روی زمین به نظر میرسد. یادگیری فیزیک و مدلسازی در این سامانۀ مختصات بسیار سخت و پیچیده است، در حالی که اگر سامانۀ مختصات را طوری تنظیم کنیم که خورشید در مرکز باشد، دادهها مفهوم بیشتری پیدا میکنند و مدلسازی بسیار آسانتر میشود. بنابراین، بخشی از گرداوری دادهها به معنای یافتن سامانۀ مختصات درست و مناسب است. گاهی این سامانۀ مختصات را از دادهها یاد میگیریم و گاهی با استفاده از دانش قبلی از فیزیک، آن را اعمال میکنیم. این انتخاب تأثیر بسیار زیادی در فرایند یادگیری دارد. طراحی معماری فیزیکمحور مرحلۀ سوم: طراحی معماری است. در نگاه کلی، میتوانیم به شبکههای عصبی لاگرانژی اشاره کنیم. اگر سامانۀ شما چارچوب معادلات اویلر-لاگرانژ دارد (مثلاً در یک سامانۀ مکانیکی مانند آونگ دوگانه)، ممکن است از یک معماری خاص مانند شبکۀ عصبی لاگرانژ استفاده کنید تا سامانۀ شما انرژی را حفظ کند. نکتۀ مهم این است که تقریباً تمام این معماریها به مجموعهای از توابع هزینۀ سفارشی نیز نیاز دارند که برای آموزش آنها ضروری است. یکی دیگر از مفاهیم فیزیکی که در مدلهای ما وجود دارد، اصل پارسیمونی (سادهگرایی) است. علاقمندیم مدلهایمان تا حد امکان ساده باشند، اما نه سادهتر از آنچه باید باشند. به طور مثال، وقتی از یک خودرمزگذار برای یادگیری یک سامانۀ مختصات خوب استفاده میکنیم و سپس سادهترین و راحتترین مدل را در کلاس مدلهایی که داده را توصیف میکنند، به دست میآوریم. این اصل پارسیمونی که از زمان ارسطو تا اینشتین با ما بوده، یکی از معیارهای ما برای تشخیص فیزیکی بودن یک سامانه است - یعنی در سادگی آن و تواناییاش در توصیف دادههای اندازهگیری شده. این نوع دیگری از معماری است. یکی دیگر از معماریهای مورد علاقه که از اولین معماریها در دوران مدرن یادگیری ماشین فیزیکمحور است، استفاده از شبکههای عصبی برای پیشبینی و ساخت مدلهای بستار برای جریانهای آشفته سیال است. این معماری با یک شبکۀ عصبی عمیق استاندارد متفاوت است. یک لایۀ ورودی تانسوری کمکی به شبکه اضافه میکنیم تا امکان ناوردایی نسبت به تبدیلات گالیله را بدهد. از آنجا که میدانیم این جریانهای سیال باید تحت چرخشها و انتقالات خاصی یکسان باقی بمانند، با انتخاب این معماری، شبکۀ عصبی اخیر مجبور به رعایت این ناوردایی است و عملکرد مدل به طور چشمگیری بهبود مییابد. اینها فقط نمونههایی از صدها نوع معماری سفارشی هستند که میتوانیم برای القای انواع خاصی از فیزیک در سامانۀ خود استفاده کنیم. توابع هزینۀ فیزیکمحور حوزۀ تحقیقاتی بسیار غنی دیگر این است که چگونه توابع هزینهای بسازیم که مدلهایی با ویژگیهای فیزیکی خاص را توصیف کنند. همانطور که قبلاً در مورد مدل پارسیمون صحبت شد، این ویژگیها معمولاً با عباراتی مانند نرم L1 یا نرم L0 در تابع هزینه کمّی میشوند. معروفترین مثال این روش، شبکههای عصبی فیزیکمحور است. در اینجا یک شبکۀ عصبی استاندارد داریم که ورودیهایی مانند فضا و زمان را به خروجیهایی مانند میدان جریان سیال نگاشت میکند. روش معمول این است که یک تابع هزینه داشته باشیم که میانگین دقت مدل را روی دادههای آموزشی اندازه میگیرد. اما چیزی که شبکههای عصبی فیزیکمحور انجام میدهند این است که از دادههای خروجی میتوانیم عباراتی در معادله دیفرانسیل جزئی خود محاسبه کنیم و فیزیک واقعی (معادله دیفرانسیل جزئی که سامانه باید از آن تبعیت کند) را به عنوان یک جملۀ تنظیمکنندۀ دیگر به تابع هزینه اضافه کنیم. اگر فیزیک سامانه را میدانیم - مثلاً میدانیم که سامانه بدون واگرایی است یا از معادلات ناویر-استوکس پیروی میکند - میتوانیم این معادلات را به عنوان جملهای تنظیمکننده به فرایند یادگیری ماشین اضافه کنیم. این کار میتواند عملکرد یادگیری را به طور چشمگیری بهبود بخشد. اگر فیزیک را در تابع هزینه بگنجانیم، میتوانیم با دادههای بسیار کمتر، عملکرد مدل بسیار بهتری داشته باشیم. الگوریتمهای بهینهسازی فیزیکمحور آخرین مرحله، که اگرچه به اندازۀ مراحل سوم و چهارم رایج نیست اما بسیار مهم است، استفاده از بهینهسازی برای اعمال فیزیک است. اگر فیزیک را به عنوان یک جمله به تابع هزینه اضافه کنیم، در واقع این پیشنهاد را دادهایم که میخواهیم فیزیک رعایت شود، اما همیشه بین کمینه کردن مدل و رعایت فیزیک یک رقابت وجود دارد. اضافه کردن فیزیک به تابع هزینه فقط آن را دقیقتر توصیف میکند، اما تضمین نمیکند که فیزیک واقعاً رعایت شود. با بهینهسازی میتوانیم محدودیتهایی اعمال کنیم که فیزیک با دقت بسیار بالاتری رعایت شود. مثلاً در مدلسازی جریان سیال با یادگیری ماشین، میدانیم که در جریانهای تراکمناپذیر، انرژی پایسته میماند. بنابراین میتوانیم یک تابع هزینه بسازیم که هم خطای مدل و هم محدودیتهای لازم برای پایستگی انرژی را شامل شود. یا به جای قرار دادن این محدودیتها در تابع هزینه، میتوانیم از روشهایی مانند مربعات کمینۀ محدود شده یا مضارب لاگرانژ استفاده کنیم تا این محدودیتها همواره با دقت عددی دقیقاً براورده شوند. این روشها قدرتمند هستند اما پیادهسازی آنها نیازمند دقت و کار برنامه نویسی بیشتری است. روشهایی مانند DMD فیزیکمحور وجود دارند که در آنها جواب را به گونهای محدود میکنیم که روی یک خمینه خاص از جوابهایی که آن تقارن را ارضا میکنند قرار گیرد. اینها پنج مرحلهای بودند که فرصتهای واضحی برای گنجاندن فیزیک در فرایند یادگیری ماشین ارائه میکنند. کاربردهای یادگیری ماشینی فیزیکمحور بسیار گسترده است: از تحلیل میدانهای جریان در هوافضا، تا طراحی مواد نو با خواص مکانیکی و شیمیایی خاص، از پیشبینی آبوهوا تا مدلسازی رفتار سلولهای زنده حتی در فیزیک نظری، مانند یادگیری ساختار لاگرانژی یا معادلات حرکت از دادههای تجربی. در نهایت، شاید بتوان گفت که یادگیری ماشینی فیزیکمحور تلاشی است برای بازگشت به رویکرد علمی یکپارچه: جایی که داده، نظریه، و محاسبه در کنار یکدیگر قرار میگیرند. آیندۀ علم، بدون شک به ابزارهایی نیاز دارد که هم از قدرت داده بهره ببرند و هم به ساختارهای بنیادی طبیعت وفادار بمانند. یادگیری ماشینی فیزیکمحور دقیقاً در همین راستا حرکت میکند و در حال باز کردن مسیرهای تازهای است. برای اطلاعات بیشتر در این زمینه می توانید به کتاب Data-Driven Science and Engineering by Steven L. Brunton and J. Nathan Kutz مراجعه کنید. 1. Machine Learning 2. Physics-Informed Machine Learning 3. Autoencoder 4. Latent state 5. Unsupervised 1. Encoder 2. Decoder 3. Latent state 4. Lagrangian Neural Networks 5. Regularizer 6. Symmetries 7. Translational 8. Rotational 1. Benchmark 2. ResNets. 3. Fourier Neural Operators 4. Parsimonious |
|
کلیدواژههای فارسی مقاله |
|
|
عنوان انگلیسی |
What is Physics-informed machine learning and why is it important? |
|
چکیده انگلیسی مقاله |
|
|
کلیدواژههای انگلیسی مقاله |
|
|
نویسندگان مقاله |
رضا عسگری | سردبیر
|
|
نشانی اینترنتی |
https://ijpr.iut.ac.ir/article_3639_32825fe0051ba1b2759b8d40b466a852.pdf |
فایل مقاله |
فایلی برای مقاله ذخیره نشده است |
کد مقاله (doi) |
|
زبان مقاله منتشر شده |
fa |
موضوعات مقاله منتشر شده |
|
نوع مقاله منتشر شده |
|
|
|
برگشت به:
صفحه اول پایگاه |
نسخه مرتبط |
نشریه مرتبط |
فهرست نشریات
|