جایزه نوبل فیزیک پیشرفت های کلیدی در انقلاب هوش مصنوعی را نشان می دهد
اگر هنگام تماشای آخرین ویدیوی تولید شده توسط هوش مصنوعی، فک شما افتاد، موجودی بانکی شما توسط یک سیستم تشخیص کلاهبرداری از شر مجرمان نجات پیدا کرد، یا روز شما کمی آسانتر شد، زیرا میتوانید در حال فرار پیامکی را دیکته کنید. بسیاری از دانشمندان، ریاضیدانان و مهندسان برای تشکر.
اما دو نام برای کمکهای اساسی به تکنولوژی یادگیری عمیق که این تجربیات را ممکن میسازد برجسته است: جان هاپفیلد، فیزیکدان دانشگاه پرینستون و جفری هینتون، دانشمند کامپیوتر دانشگاه تورنتو.
این دو محقق در 8 اکتبر 2024 جایزه نوبل فیزیک را به دلیل فعالیت های پیشگامانه خود در زمینه شبکه های عصبی مصنوعی دریافت کردند. اگرچه شبکههای عصبی مصنوعی بر اساس شبکههای عصبی بیولوژیکی مدلسازی میشوند، اما کار هر دو محقق بر روی فیزیک آماری انجام میشود و از این رو در فیزیک جایزه دریافت کردند.
شبکه های عصبی مصنوعی منشا خود را مدیون مطالعات نورون های بیولوژیکی در مغزهای زنده هستند. در سال 1943، وارن مک کالوچ، فیزیولوژیست عصبی و والتر پیتس، منطق دان، مدل ساده ای از نحوه عملکرد یک نورون ارائه کردند. در مدل مککالوخ پیتس، یک نورون به نورونهای همسایهاش متصل است و میتواند سیگنالهایی را از آنها دریافت کند. سپس می تواند آن سیگنال ها را برای ارسال سیگنال به نورون های دیگر ترکیب کند.
نحوه محاسبه یک نورون
اما یک پیچ و تاب وجود دارد: میتواند سیگنالهایی را که از همسایگان مختلف میآیند، متفاوت ارزیابی کند. تصور کنید که در حال تلاش برای تصمیم گیری برای خرید یک گوشی پرفروش جدید هستید یا خیر. شما با دوستان خود صحبت می کنید و از آنها توصیه می کنید. یک استراتژی ساده این است که همه توصیههای دوستان را جمعآوری کنید و تصمیم بگیرید که با آنچه اکثریت میگویند همراه باشید. مثلاً از سه دوست آلیس، باب و چارلی میپرسید و آنها به ترتیب میگویند یای، یای و نه. این شما را به تصمیم گیری برای خرید گوشی سوق می دهد زیرا شما دو بله و یک خیر دارید.
با این حال، ممکن است به برخی از دوستان بیشتر اعتماد کنید زیرا آنها دانش عمیقی از ابزارهای فنی دارند. بنابراین ممکن است تصمیم بگیرید که به توصیه ها و پیشرفت های کلیدی در انقلاب هوش مصنوعی اهمیت بیشتری بدهید. به عنوان مثال، اگر چارلی بسیار آگاه است، ممکن است نهی او را سه بار بشمارید و اکنون تصمیم شما این است که گوشی را نخرید – دو بله و سه نه. اگر از داشتن دوستی بدبختید که در مسائل ابزار فنی کاملاً به او بی اعتماد هستید، حتی ممکن است وزن منفی برای او قائل شوید.
هنگامی که تصمیم خود را در مورد اینکه آیا تلفن جدید انتخاب خوبی است، گرفتید، دوستان دیگر می توانند از شما توصیه کنند. به طور مشابه، در شبکههای عصبی مصنوعی و بیولوژیکی، نورونها میتوانند سیگنالهای همسایگان خود را جمعآوری کنند و سیگنالی را به نورونهای دیگر ارسال کنند. این قابلیت منجر به یک تمایز کلیدی می شود: آیا چرخه ای در شبکه وجود دارد؟ به عنوان مثال، اگر امروز از آلیس، باب و چارلی بپرسم، و فردا آلیس از من برای توصیه من بخواهد، یک چرخه وجود دارد: از آلیس به من، و از من به آلیس.
اگر اتصالات بین نورون ها چرخه ای نداشته باشند، دانشمندان کامپیوتر آن را شبکه عصبی پیشخور می نامند. نورون ها در یک شبکه پیشخور می توانند در لایه ها مرتب شوند. لایه اول از ورودی ها تشکیل شده است. لایه دوم سیگنال های خود را از لایه اول و غیره دریافت می کند. آخرین لایه نشان دهنده خروجی های شبکه است.
با این حال، اگر چرخه ای در شبکه وجود داشته باشد، دانشمندان کامپیوتر آن را شبکه عصبی بازگشتی می نامند و آرایش نورون ها می تواند پیچیده تر از شبکه های عصبی پیشخور باشد.
الهام بخش اولیه شبکه های عصبی مصنوعی از زیست شناسی بود، اما به زودی زمینه های دیگر شروع به شکل دادن به توسعه آنها کردند. اینها شامل منطق، ریاضیات و فیزیک بود. فیزیکدان جان هاپفیلد از ایده های فیزیک برای مطالعه نوع خاصی از شبکه عصبی تکرارشونده استفاده کرد که امروزه شبکه هاپفیلد نامیده می شود. به طور خاص، او پویایی آنها را مطالعه کرد: در طول زمان چه اتفاقی برای شبکه می افتد؟
شبکه هاپفیلد
هاپفیلد در استفاده از مدلهای فیزیک، به ویژه مدلهایی که برای مطالعه مغناطیس توسعه یافتهاند، برای درک پویایی شبکههای عصبی مکرر، پیشگام بود. او همچنین نشان داد که دینامیک آنها می تواند به چنین شبکه های عصبی شکلی از حافظه بدهد.
در طول دهه 1980، جفری هینتون، ترنس سجنووسکی، عصببیولوژیست محاسباتی و دیگران، ایدههای هاپفیلد را برای ایجاد کلاس جدیدی از مدلها به نام ماشینهای بولتزمن، به نام فیزیکدان قرن نوزدهم، لودویگ بولتزمن، گسترش دادند. همانطور که از نام آن پیداست، طراحی این مدل ها ریشه در فیزیک آماری پیشگام بولتزمن دارد. برخلاف شبکههای هاپفیلد که میتوانند الگوها را ذخیره کرده و خطاها را در الگوها تصحیح کنند – مانند غلطگیر املا، ماشینهای بولتزمن میتوانند الگوهای جدیدی تولید کنند و در نتیجه بذر انقلاب مولد هوش مصنوعی مدرن را بکارند.
اگر می خواهید شبکه های عصبی مصنوعی کارهای جالبی انجام دهند، باید به نوعی وزنه های مناسب را برای اتصالات بین نورون های مصنوعی انتخاب کنید. پس انتشار یک الگوریتم کلیدی است که انتخاب وزن ها را بر اساس عملکرد شبکه در مجموعه داده های آموزشی امکان پذیر می کند. انتشار پسپشتی اولین بار در زمینه تئوری کنترل توسعه یافت و توسط پل وربوس در سال 1974 در شبکههای عصبی اعمال شد. در دهه 1980، هینتون و همکارانش نشان دادند که انتشار پسانداز میتواند به لایههای میانی شبکه عصبی کمک کند تا ویژگیهای مهم ورودی را بیاموزند. به عنوان مثال، نورونی که یاد می گیرد چشم ها را در یک تصویر تشخیص دهد، ویژگی مهمی را یاد گرفته است که برای تشخیص چهره مفید است.
ماشین آلات بولتزمن و پس انتشار
این داستان به روز شده است تا روشن شود که هینتون به پیشرفت کمک کرد، اما پسپروپولیشن را اختراع نکرد.
منبع: shafaghnews.com