چگونه یک زیر شاخه از فیزیک منجر به پیشرفتهایی در هوش مصنوعی شد
جان جی. هاپفیلد و جفری ای. هینتون در 8 اکتبر 2024 جایزه نوبل فیزیک را برای تحقیقات خود در یک زیر شاخه از فیزیک مورد الگوریتمهای یادگیری ماشین و شبکههای عصبی که به رایانهها کمک میکنند، دریافت کردند. کار آنها در توسعه نظریه های شبکه های عصبی که زیربنای هوش مصنوعی مولد هستند، اساسی بوده است. شبکه عصبی یک مدل محاسباتی متشکل از لایه هایی از نورون های به هم پیوسته است. مانند نورون های مغز شما، این نورون ها نیز بخشی از اطلاعات را پردازش و ارسال می کنند. هر لایه عصبی یک قطعه داده را دریافت می کند، آن را پردازش می کند و نتیجه را به لایه بعدی منتقل می کند. در پایان این توالی، شبکه داده ها را پردازش کرده و به چیزی مفیدتر تبدیل کرده است.
به گزارش شفق نیوز، اگرچه ممکن است تعجب آور به نظر برسد که هاپفیلد و هینتون جایزه فیزیک را برای مشارکت خود در شبکه های عصبی مورد استفاده در علوم کامپیوتر دریافت کردند، کار آنها عمیقاً ریشه در اصول فیزیک دارد، به ویژه زیر شاخه ای به نام مکانیک آماری.mبهعنوان یک دانشمند محاسباتی مواد، از دیدن این که این حوزه تحقیقاتی با جایزه به رسمیت شناخته شد، هیجانزده بودم. کار هاپفیلد و هینتون به من و همکارانم اجازه داد تا فرآیندی به نام یادگیری مولد برای علوم مواد را مطالعه کنیم، روشی که پشت بسیاری از فناوریهای محبوب مانند ChatGPT است.
مکانیک آماری چیست؟
مکانیک آماری شاخهای از فیزیک است که از روشهای آماری برای توضیح رفتار سیستمهایی که از تعداد زیادی ذره تشکیل شدهاند استفاده میکند.
به جای تمرکز بر ذرات منفرد، محققان با استفاده از مکانیک آماری به رفتار جمعی بسیاری از ذرات نگاه می کنند. دیدن اینکه چگونه همه آنها با هم عمل می کنند به محققان کمک می کند تا خواص ماکروسکوپی در مقیاس بزرگ مانند دما، فشار و مغناطیسی را درک کنند.
به عنوان مثال، فیزیکدان ارنست ایزینگ در دهه 1920 یک مدل مکانیک آماری برای مغناطیس ایجاد کرد. تصور مغناطیس به عنوان رفتار جمعی اسپین های اتمی در تعامل با همسایگان خود. در مدل آیزینگ، حالتهای انرژی بالاتر و پایینتر برای سیستم وجود دارد و احتمال وجود مواد در کمترین حالت انرژی بیشتر است.
یکی از ایده های کلیدی در مکانیک آماری توزیع بولتزمن است که میزان احتمال یک حالت معین را کمی می کند. این توزیع احتمال قرار گرفتن یک سیستم در یک حالت خاص – مانند جامد، مایع یا گاز – را بر اساس انرژی و دمای آن توصیف میکند.
آیزینگ دقیقاً انتقال فاز یک آهنربا را با استفاده از توزیع بولتزمن پیش بینی کرد. او دمایی را که در آن ماده از مغناطیسی به غیر مغناطیسی تغییر میکند، کشف کرد.
شبکه های عصبی و مکانیک آماری
در مواد، اتم ها خود را در ساختارهای کریستالی خاصی قرار می دهند که کمترین مقدار انرژی را مصرف می کنند. وقتی هوا سرد است، مولکولهای آب به کریستالهای یخی با حالتهای انرژی کم منجمد میشوند.
به طور مشابه، در زیستشناسی، پروتئینها به شکلهایی کمانرژی تا میشوند که به آنها اجازه میدهد تا به عنوان آنتیبادیهای خاص – مانند قفل و کلید – برای هدف قرار دادن ویروس عمل کنند.
اساساً، تمام شبکه های عصبی بر اساس یک اصل مشابه کار می کنند – برای به حداقل رساندن انرژی. شبکه های عصبی از این اصل برای حل مسائل محاسباتی استفاده می کنند.
ماشین بولتزمن
با این حال، بر خلاف مکانیک آماری – که در آن انرژی توسط فعل و انفعالات اتمی شناخته شده تعیین می شود – شبکه های عصبی این انرژی ها را از داده ها یاد می گیرند.
منبع: shafaghnews.com