پژوهش فیزیک ایران، جلد ۲۵، شماره ۱، صفحات ۰-۰

عنوان فارسی یادگیری ماشینی فیزیک‌محور چیست و چرا اهمیت دارد؟
چکیده فارسی مقاله در دهه‌های اخیر، یادگیری ماشینی[1] به یکی از ابزارهای قدرتمند برای تحلیل داده‌ها و ساخت مدل‌های پیش‌بینی در علوم مختلف تبدیل شده است. با این حال، زمانی که صحبت از مدل‌سازی سامانه‌های فیزیکی پیچیده مانند دینامیک سیالات، رفتار مواد، فیزیک ذرات، یا سامانه‌های مولکولی به میان می‌آید، یادگیری ماشینی سنتی با چالش‌هایی جدی مواجه می‌شود. در اینجا، مفهوم یادگیری ماشینی فیزیک‌محور[2] وارد صحنه می‌شود. یادگیری ماشینی فیزیک‌محور روشی است که در آن، دانش قبلی ما از قوانین فیزیکی – مانند معادلات دیفرانسیل، اصول پایستگی، تقارن‌ها و شرایط مرزی – در فرایند آموزش مدل‌های یادگیری ماشینی گنجانده می‌شود. این رویکرد به ما اجازه می‌دهد که مدل‌هایی دقیق‌تر، قابل اعتمادتر و کارامدتر بسازیم؛ به ویژه در شرایطی که داده‌های موجود محدود، پراکنده یا تهیۀ آنها پرهزینه باشند. در مدل‌سازی‌های کلاسیک، صرفاً به داده‌ها تکیه می‌کنیم (مدل‌های داده‌محور)، یا تنها از معادلات فیزیکی استفاده می‌کنیم (مدل‌های تحلیلی یا عددی). اما یادگیری ماشینی فیزیک‌محور تلاش می‌کند پلی میان این دو رویکرد ایجاد کند: ترکیب قدرت تعمیم یادگیری ماشین با قوانین فیزیک. برای مثال، اگر سامانه‌ای مانند آونگ را در نظر بگیریم، یادگیری ماشین می‌تواند صرفاً از داده‌های حرکتی آونگ، الگوی حرکت را یاد بگیرد. اما اگر معادلۀ حرکت آونگ (مثلاً معادلۀ لاگرانژ یا معادله دیفرانسیل مرتبۀ دوم) را نیز وارد مدل کنیم، می‌توانیم با داده‌های بسیار کمتر، مدل دقیق‌تری بسازیم. این مدل نه‌تنها بازسازی دقیقی از رفتار سامانه دارد، بلکه به اصول فیزیکی نیز پایبند است و نسبت به مدل یادگیری ماشینی سنتی که داده‌های ورودی را بازسازی می‌کند، توانایی پیش‌بینی بیشتری از رفتار سامانه دارد. اجازه دهید دقیق‌تر به این پرسش جواب دهیم که منظور از یادگیری ماشینی فیزیک‌محور چیست؟ یک آونگ را که به راست و چپ حرکت می‌کند، درنظر می‌گیریم. می‌توان یک شتاب‌سنج کوچک و یک LED روی نوک آن قرار دارد، بنابراین می‌توانیم از آن فیلم بگیریم. در یادگیری ماشینی سنتی، ممکن است ویدئوی این آونگ به کار برده شود و از یک شبکۀ عصبی خودکدگذار[3] برای کاهش ابعاد این ویدئو به یک حالت نهفتۀ[4] کم‌بعد استفاده شود. این حالت کم‌بعد به شما امکان می‌دهد ویدئو را از همان متغیرهای محدود بازسازی کنید. لازم به توضیح است که خود‌کد‌گذار یک مدل شبکۀ‌عصبی است که به صورت غیرنظارتی[5] آموزش داده می‌شود و هدف اصلی آن، کاهش ابعاد داده‌ها و یا یادگیری نمایش فشرده و مفید از داده‌های ورودی است. ساختار خود‌کد‌گذار  معمولاً از دو بخش اصلی تشکیل شده، کدگذار[6] این بخش ورودی را می‌گیرد و آن را به یک فضای با بعد کمتر تبدیل می‌کند (یعنی یک نمایش فشرده‌تر از دادۀ اصلی) ، کدگشای[7] این بخش تلاش می‌کند از نمایش فشردۀ تولید شده، دادۀ اصلی را دوباره بازسازی کند. حال به مسئلۀ آونگ ساده برگردیم. می‌دانیم که این یک سامانۀ کم‌بعد است واحتمالاً با متغیرهایی مانند زاویه (θ) وسرعت زاویه‌ای توصیف می‌شود. یادگیری ماشینی ساده‌ ممکن است فقط سعی کند مختصاتی را پیدا کند که بتوان داده‌ها را به آن فشرده کرد و سپس دوباره به ویدئوی کامل بازگرداند. اما یادگیری ماشینی فیزیک‌محور کمی پیچیده‌تر عمل می‌کند:  ما نه تنها می‌خواهیم مختصاتی برای فشرده‌سازی ویدئو یاد بگیریم، بلکه می‌خواهیم یک معادله دیفرانسیل برای تحول این مختصات در زمان نیز فرا بگیریم، چیزی شبیه به معادلۀ آونگ میرا. این معادله را می‌توان به دو روش در نظر گرفت: اگر از قبل معادله را می‌دانستیم، می‌توانستیم آن را در حالت نهفته[8]  بگنجانیم تا مختصات بهتری یاد بگیریم. یا می‌توانستیم سعی کنیم این معادله دیفرانسیل را فقط از داده‌های اندازه‌گیری شده استخراج کنیم. در این مثال، دو جزء کلیدی وجود دارد: اولاً، باید یک سامانۀ مختصاتی خوب مانند θ پیدا کنیم که حرکت آونگ را به خوبی توصیف کند. توجه کنید θ بهتر از مختصات x و y نوک آونگ است. ثانیاً، باید معادلات حرکت را یاد بگیریم؛ یعنی یک معادله دیفرانسیل که تحول سامانه در زمان را توصیف کند. این همان چیزی است که معمولاً از یادگیری ماشینی فیزیک‌محور انتظار داریم: یادگیری مختصات مناسب و قوانین فیزیکی حاکم (که اغلب معادلات دیفرانسیل هستند). این قوانین را می‌توان یا از داده‌ها یاد گرفت یا از قبل در مدل یادگیری ماشینی گنجاند. حالا می‌خواهیم کمی کلی‌تر بحث کنیم و مراحل پنج‌گانۀ ساخت یک مدل یادگیری ماشینی کلاسیک را بررسی کنیم. این پنج مرحله عبارتند از:
1) تعریف مسئله: تصمیم می‌گیریم چه چیزی را مدل کنیم (ورودی‌ها و خروجی‌ها چه هستند؟).
2) جمع‌آوری و تنظیم داده‌ها: داده‌های آموزشی را جمع‌آوری می‌کنیم.
3) طراحی معماری: یک معماری مناسب (مثلاً یک شبکۀ عصبی خاص) انتخاب می‌کنیم.
4) تعریف تابع هزینه: معیاری برای سنجش عملکرد مدل طراحی می‌کنیم.
5) بهینه‌سازی: پارامترهای مدل را تنظیم می‌کنیم تا تابع هزینه کمینه شود. در هر یک از این مراحل، می‌توانیم فیزیک را به فرایند یادگیری ماشینی اضافه کنیم. مثلاً: در مرحلۀ 1، اگر سامانۀ فیزیکی مانند آونگ را مدل می‌کنیم، خود مسئله فیزیک‌محور است. در مرحلۀ 2، اگر داده‌ها از یک سامانۀ فیزیکی گرفته شده ‌باشند، فیزیک در داده‌ها نهفته است. در مرحلۀ 3، می‌توانیم معماری‌هایی مانند شبکه‌های عصبی لاگرانژی[9]  را انتخاب کنیم که قوانین پایستگی انرژی را رعایت می‌کنند. در مرحلۀ 4، می‌توانیم تابع هزینه را طوری طراحی کنیم که معادلات فیزیکی (مثلاً معادلات ناویر-استوکس) را به عنوان یک جملۀ تنظیم‌کننده[10]  شامل شود.  برای این کار قوانین فیزیکی با  مضارب لاگرانژی به تابع هزینه اضافه می‌شوند. در مرحلۀ 5، می‌توانیم از روش‌های بهینه‌سازی استفاده کنیم که محدودیت‌های فیزیکی را دقیقاً رعایت کنند. یکی از مفاهیم کلیدی در اینجا تقارن‌ها  [11]است. بسیاری از سامانه‌های فیزیکی تقارن‌هایی مانند انتقالی[12] یا چرخشی[13] دارند. اگر این تقارن‌ها را در مدل خود بگنجانیم، عملکرد مدل بهبود می‌یابد. یادگیری ماشینی فیزیک‌محور کاربردهایی وسیعی در علوم و مهندسی، مانند مدل‌سازی جریان سیالات، بهینه‌سازی شکل آیرودینامیکی، و طراحی مواد پیشرفته دارد. همچنین، سامانه‌های معیار[14] و معماری‌های مختلف مانند شبکه‌های عصبی باقیمانده[15]، شبکه‌های عصبی فوریه[16]، و مدل‌های پارسیمونی[17] مانند ارائه شده‌اند . هدف نهایی این است که از حالت آزمون و خطای بی‌نظم به سمت یک روش سیستماتیک و مبتنی بر اصول فیزیکی حرکت کنیم. گرداوری داده‌های فیزیک‌محور چه داده‌هایی را باید استفاده کنیم؟ اگر داده‌ها از یک سامانۀ فیزیکی گرفته شده باشند، ذاتاً فیزیک را در فرایند جمع‌آوری داده‌ها جاسازی کرده‌ایم. مرحلۀ دوم، روش جامع برای گنجاندن فیزیک در مدل است. ایده این است که اگر داده‌های کافی از جهان طبیعی جمع‌آوری کنید، مدل ناچار است فیزیک را یاد بگیرد، مثلاً F=ma یا حتیE=mc²، تا بتواند همه آن داده‌های جمع‌آوری شده را با هم تطبیق دهد. اما دلیل این که روش فوق را شبیه به رویکرد جامع می‌نامند این است که بسیار پرهزینه است و به حجم تقریباً نامحدودی از داده نیاز دارد. دانشمندان و مهندسان، اغلب چنین امکانی ندارند و معمولاً با مجموعۀ دادۀ محدود و هدفمند کار می‌کنند که باید از آنها برای یادگیری فیزیکی استفاده کنند و به صورت گسترده‌تری قابل تعمیم باشند. مثلاً، آیا می‌خواهیم از میدان‌های جریان سیال به عنوان دادۀ آموزشی استفاده کنیم؟ آیا این داده‌ها را در سرعت‌های مختلف جریان جمع‌آوری کرده‌ایم؟ اگر مدل فقط یک سرعت جریان را داشته باشد، با مدلی که محدوده‌ای از سرعت‌ها را پوشش می‌دهد، بسیار متفاوت خواهد بود و این بر نوع فیزیکی که مدل یاد می‌گیرد، تأثیر می‌گذارد. مثال دیگر: اگر داده‌های جریان سیال ژئوفیزیکی داشته باشیم (مثلاً تشکیل ابر در اطراف یک سد)، یکی از کارهایی که می‌توانیم در فرایند گرداوری داده انجام دهیم این است که اگر فکر می‌کنیم فیزیک سامانه به چرخش یا انتقال وابسته نیست (یعنی تحت تقارن‌هایی مانند انتقال یا چرخش ناوردا است)، می‌توانیم داده‌ها را با نمونه‌های چرخش‌یافته یا انتقال‌یافته تکمیل کنیم. این یک روش بسیار رایج است. اگر سامانه مورد بررسی نوعی تقارن یا ناوردایی دارد (که خود شکلی از فیزیک است)، می‌توانید داده‌ها را به گونه‌ای تغییر دهید که این تقارن‌ها را شامل شود. مثلاً اگر یک طبقه‌بند می‌سازیم که باید بتواند تصویر یک سگ را از تصویر یک گربه تشخیص دهد، می‌توانیم تصاویر را بچرخانیم، جابه‌جا کنیم یا مقیاس‌دهی کنیم، چون این تغییرات نباید روی نتیجۀ طبقه‌بندی تأثیر بگذارند. بنابراین می‌توانیم داده‌ها را به گونه‌ای تکمیل کنیم که این ناوردایی‌ها را شامل شود. نکتۀ دیگری که زیاد با آن روبرو خواهیم شد این است که مختصات معمولاً در یادگیری ماشینی سامانه‌های فیزیکی اهمیت زیادی دارند. مثال های متفاوتی در فیزیک، به خصوص در مکانیک و الکترومغناطیس وجود دارد که برتری یک دستگاه مختصات را به دستگاه مختصات دیگر نشان می‌دهد. برای نمونه، دو سامانۀ مختصات مختلف برای سیارات و خورشید و زمین را در نظر بگیرید. یکی از سامانه‌ها دید زمین‌مرکزی است که از دیدگاه ما روی زمین به نظر می‌رسد. یادگیری فیزیک و مدل‌سازی در این سامانۀ مختصات بسیار سخت و پیچیده است، در حالی که اگر سامانۀ مختصات را طوری تنظیم کنیم که خورشید در مرکز باشد، داده‌ها مفهوم بیشتری پیدا می‌کنند و مدل‌سازی بسیار آسان‌تر می‌شود. بنابراین، بخشی از گرداوری داده‌ها به معنای یافتن سامانۀ مختصات درست و مناسب است. گاهی این سامانۀ مختصات را از داده‌ها یاد می‌گیریم و گاهی با استفاده از دانش قبلی از فیزیک، آن را اعمال می‌کنیم. این انتخاب تأثیر بسیار زیادی در فرایند یادگیری دارد. طراحی معماری فیزیک‌محور مرحلۀ سوم: طراحی معماری است. در نگاه کلی، می‌توانیم به شبکه‌های عصبی لاگرانژی اشاره کنیم. اگر سامانۀ شما چارچوب معادلات اویلر-لاگرانژ دارد (مثلاً در یک سامانۀ مکانیکی مانند آونگ دوگانه)، ممکن است از یک معماری خاص مانند شبکۀ عصبی لاگرانژ استفاده کنید تا سامانۀ شما انرژی را حفظ کند. نکتۀ مهم این است که تقریباً تمام این معماری‌ها به مجموعه‌ای از توابع هزینۀ سفارشی نیز نیاز دارند که برای آموزش آنها ضروری است. یکی دیگر از مفاهیم فیزیکی که در مدل‌های ما وجود دارد، اصل پارسیمونی (ساده‌گرایی) است. علاقمندیم مدل‌هایمان تا حد امکان ساده باشند، اما نه ساده‌تر از آنچه باید باشند. به طور مثال، وقتی از یک خودرمزگذار برای یادگیری یک سامانۀ مختصات خوب استفاده می‌کنیم و سپس ساده‌ترین و راحت‌ترین مدل را  در کلاس مدل‌هایی که داده را توصیف می‌کنند، به دست می‌آوریم. این اصل پارسیمونی که از زمان ارسطو تا اینشتین با ما بوده، یکی از معیارهای ما برای تشخیص فیزیکی بودن یک سامانه است - یعنی در سادگی آن و توانایی‌اش در توصیف داده‌های اندازه‌گیری شده. این نوع دیگری از معماری است. یکی دیگر از معماری‌های مورد علاقه که از اولین‌ معماری‌ها در دوران مدرن یادگیری ماشین فیزیک‌محور است، استفاده از شبکه‌های عصبی برای پیش‌بینی و ساخت مدل‌های بستار برای جریان‌های آشفته سیال است. این معماری با یک شبکۀ عصبی عمیق استاندارد متفاوت است. یک لایۀ ورودی تانسوری کمکی به شبکه اضافه می‌کنیم تا امکان ناوردایی نسبت به تبدیلات گالیله را بدهد. از آنجا که می‌دانیم این جریان‌های سیال باید تحت چرخش‌ها و انتقالات خاصی یکسان باقی بمانند، با انتخاب این معماری، شبکۀ عصبی اخیر مجبور به رعایت این ناوردایی است و عملکرد مدل به طور چشمگیری بهبود می‌یابد. اینها فقط نمونه‌هایی از صدها نوع معماری سفارشی هستند که می‌توانیم برای القای انواع خاصی از فیزیک در سامانۀ خود استفاده کنیم. توابع هزینۀ فیزیک‌محور حوزۀ تحقیقاتی بسیار غنی دیگر این است که چگونه توابع هزینه‌ای بسازیم که مدل‌هایی با ویژگی‌های فیزیکی خاص را توصیف کنند. همانطور که قبلاً در مورد مدل ‌پارسیمون صحبت شد، این ویژگی‌ها معمولاً با عباراتی مانند نرم L1 یا نرم L0 در تابع هزینه کمّی می‌شوند. معروف‌ترین مثال این روش، شبکه‌های عصبی فیزیک‌محور است. در اینجا یک شبکۀ عصبی استاندارد داریم که ورودی‌هایی مانند فضا و زمان را به خروجی‌هایی مانند میدان جریان سیال نگاشت می‌کند. روش معمول این است که یک تابع هزینه داشته باشیم که میانگین دقت مدل را روی داده‌های آموزشی اندازه می‌گیرد. اما چیزی که شبکه‌های عصبی فیزیک‌محور انجام می‌دهند این است که از داده‌های خروجی می‌توانیم عباراتی در معادله دیفرانسیل جزئی خود محاسبه کنیم و فیزیک واقعی (معادله دیفرانسیل جزئی که سامانه باید از آن تبعیت کند) را به عنوان یک جملۀ تنظیم‌کنندۀ دیگر به تابع هزینه اضافه کنیم. اگر فیزیک سامانه را می‌دانیم - مثلاً می‌دانیم که سامانه بدون واگرایی است یا از معادلات ناویر-استوکس پیروی می‌کند - می‌توانیم این معادلات را به عنوان جمله‌ای تنظیم‌کننده به فرایند یادگیری ماشین اضافه کنیم. این کار می‌تواند عملکرد یادگیری را به طور چشمگیری بهبود بخشد. اگر فیزیک را در تابع هزینه بگنجانیم، می‌توانیم با داده‌های بسیار کمتر، عملکرد مدل بسیار بهتری داشته باشیم. الگوریتم‌های بهینه‌سازی فیزیک‌محور آخرین مرحله، که اگرچه به اندازۀ مراحل سوم و چهارم رایج نیست اما بسیار مهم است، استفاده از بهینه‌سازی برای اعمال فیزیک است. اگر فیزیک را به عنوان یک جمله به تابع هزینه اضافه کنیم، در واقع این پیشنهاد را داده‌ایم که می‌خواهیم فیزیک رعایت شود، اما همیشه بین کمینه کردن مدل و رعایت فیزیک یک رقابت وجود دارد. اضافه کردن فیزیک به تابع هزینه فقط آن را دقیق‌تر توصیف می‌کند، اما تضمین نمی‌کند که فیزیک واقعاً رعایت شود. با بهینه‌سازی می‌توانیم محدودیت‌هایی اعمال کنیم که فیزیک با دقت بسیار بالاتری رعایت شود. مثلاً در مدل‌سازی جریان سیال با یادگیری ماشین، می‌دانیم که در جریان‌های تراکم‌ناپذیر، انرژی پایسته می‌ماند. بنابراین می‌توانیم یک تابع هزینه بسازیم که هم خطای مدل و هم محدودیت‌های لازم برای پایستگی انرژی را شامل شود. یا به جای قرار دادن این محدودیت‌ها در تابع هزینه، می‌توانیم از روش‌هایی مانند مربعات کمینۀ محدود شده یا مضارب لاگرانژ استفاده کنیم تا این محدودیت‌ها همواره با دقت عددی دقیقاً براورده شوند. این روش‌ها قدرتمند هستند اما پیاده‌سازی آنها نیازمند دقت و کار برنامه نویسی بیشتری است. روش‌هایی مانند DMD فیزیک‌محور وجود دارند که در آنها جواب را به گونه‌ای محدود می‌کنیم که روی یک خمینه خاص از جواب‌هایی که آن تقارن را ارضا می‌کنند قرار گیرد. اینها پنج مرحله‌ای بودند که فرصت‌های واضحی برای گنجاندن فیزیک در فرایند یادگیری ماشین ارائه می‌کنند. کاربردهای یادگیری ماشینی فیزیک‌محور بسیار گسترده است: از تحلیل میدان‌های جریان در هوافضا، تا طراحی مواد نو با خواص مکانیکی و شیمیایی خاص، از پیش‌بینی آب‌وهوا تا مدل‌سازی رفتار سلول‌های زنده حتی در فیزیک نظری، مانند یادگیری ساختار لاگرانژی یا معادلات حرکت از داده‌های تجربی. در نهایت، شاید بتوان گفت که یادگیری ماشینی فیزیک‌محور تلاشی است برای بازگشت به رویکرد علمی یکپارچه: جایی که داده، نظریه، و محاسبه در کنار یکدیگر قرار می‌گیرند. آیندۀ علم، بدون شک به ابزارهایی نیاز دارد که هم از قدرت داده بهره ببرند و هم به ساختارهای بنیادی طبیعت وفادار بمانند. یادگیری ماشینی فیزیک‌محور دقیقاً در همین راستا حرکت می‌کند و در حال باز کردن مسیرهای تازه‌ای است. برای اطلاعات بیشتر در این زمینه می توانید به کتاب Data-Driven Science and Engineering by Steven L. Brunton and J. Nathan Kutz مراجعه کنید. 1. Machine Learning 2. Physics-Informed Machine Learning 3. Autoencoder 4. Latent state 5. Unsupervised 1. Encoder 2. Decoder 3. Latent state 4. Lagrangian Neural Networks 5. Regularizer 6. Symmetries 7. Translational 8. Rotational 1. Benchmark 2. ResNets. 3. Fourier Neural Operators 4. Parsimonious
کلیدواژه‌های فارسی مقاله

عنوان انگلیسی What is Physics-informed machine learning and why is it important?
چکیده انگلیسی مقاله
کلیدواژه‌های انگلیسی مقاله

نویسندگان مقاله رضا عسگری |
سردبیر


نشانی اینترنتی https://ijpr.iut.ac.ir/article_3639_32825fe0051ba1b2759b8d40b466a852.pdf
فایل مقاله فایلی برای مقاله ذخیره نشده است
کد مقاله (doi)
زبان مقاله منتشر شده fa
موضوعات مقاله منتشر شده
نوع مقاله منتشر شده
برگشت به: صفحه اول پایگاه   |   نسخه مرتبط   |   نشریه مرتبط   |   فهرست نشریات