تکنولوژی

جایزه نوبل فیزیک پیشرفت های کلیدی در انقلاب هوش مصنوعی را نشان می دهد

اگر هنگام تماشای آخرین ویدیوی تولید شده توسط هوش مصنوعی، فک شما افتاد، موجودی بانکی شما توسط یک سیستم تشخیص کلاهبرداری از شر مجرمان نجات پیدا کرد، یا روز شما کمی آسان‌تر شد، زیرا می‌توانید در حال فرار پیامکی را دیکته کنید. بسیاری از دانشمندان، ریاضیدانان و مهندسان برای تشکر.

اما دو نام برای کمک‌های اساسی به تکنولوژی یادگیری عمیق که این تجربیات را ممکن می‌سازد برجسته است: جان هاپفیلد، فیزیکدان دانشگاه پرینستون و جفری هینتون، دانشمند کامپیوتر دانشگاه تورنتو.

این دو محقق در 8 اکتبر 2024 جایزه نوبل فیزیک را به دلیل فعالیت های پیشگامانه خود در زمینه شبکه های عصبی مصنوعی دریافت کردند. اگرچه شبکه‌های عصبی مصنوعی بر اساس شبکه‌های عصبی بیولوژیکی مدل‌سازی می‌شوند، اما کار هر دو محقق بر روی فیزیک آماری انجام می‌شود و از این رو در فیزیک جایزه دریافت کردند.

شبکه های عصبی مصنوعی منشا خود را مدیون مطالعات نورون های بیولوژیکی در مغزهای زنده هستند. در سال 1943، وارن مک کالوچ، فیزیولوژیست عصبی و والتر پیتس، منطق دان، مدل ساده ای از نحوه عملکرد یک نورون ارائه کردند. در مدل مک‌کالوخ پیتس، یک نورون به نورون‌های همسایه‌اش متصل است و می‌تواند سیگنال‌هایی را از آن‌ها دریافت کند. سپس می تواند آن سیگنال ها را برای ارسال سیگنال به نورون های دیگر ترکیب کند.

نحوه محاسبه یک نورون

اما یک پیچ و تاب وجود دارد: می‌تواند سیگنال‌هایی را که از همسایگان مختلف می‌آیند، متفاوت ارزیابی کند. تصور کنید که در حال تلاش برای تصمیم گیری برای خرید یک گوشی پرفروش جدید هستید یا خیر. شما با دوستان خود صحبت می کنید و از آنها توصیه می کنید. یک استراتژی ساده این است که همه توصیه‌های دوستان را جمع‌آوری کنید و تصمیم بگیرید که با آنچه اکثریت می‌گویند همراه باشید. مثلاً از سه دوست آلیس، باب و چارلی می‌پرسید و آنها به ترتیب می‌گویند یای، یای و نه. این شما را به تصمیم گیری برای خرید گوشی سوق می دهد زیرا شما دو بله و یک خیر دارید.

با این حال، ممکن است به برخی از دوستان بیشتر اعتماد کنید زیرا آنها دانش عمیقی از ابزارهای فنی دارند. بنابراین ممکن است تصمیم بگیرید که به توصیه ها و پیشرفت های کلیدی در انقلاب هوش مصنوعی اهمیت بیشتری بدهید. به عنوان مثال، اگر چارلی بسیار آگاه است، ممکن است نهی او را سه بار بشمارید و اکنون تصمیم شما این است که گوشی را نخرید – دو بله و سه نه. اگر از داشتن دوستی بدبختید که در مسائل ابزار فنی کاملاً به او بی اعتماد هستید، حتی ممکن است وزن منفی برای او قائل شوید.

هنگامی که تصمیم خود را در مورد اینکه آیا تلفن جدید انتخاب خوبی است، گرفتید، دوستان دیگر می توانند از شما توصیه کنند. به طور مشابه، در شبکه‌های عصبی مصنوعی و بیولوژیکی، نورون‌ها می‌توانند سیگنال‌های همسایگان خود را جمع‌آوری کنند و سیگنالی را به نورون‌های دیگر ارسال کنند. این قابلیت منجر به یک تمایز کلیدی می شود: آیا چرخه ای در شبکه وجود دارد؟ به عنوان مثال، اگر امروز از آلیس، باب و چارلی بپرسم، و فردا آلیس از من برای توصیه من بخواهد، یک چرخه وجود دارد: از آلیس به من، و از من به آلیس.

اگر اتصالات بین نورون ها چرخه ای نداشته باشند، دانشمندان کامپیوتر آن را شبکه عصبی پیشخور می نامند. نورون ها در یک شبکه پیشخور می توانند در لایه ها مرتب شوند. لایه اول از ورودی ها تشکیل شده است. لایه دوم سیگنال های خود را از لایه اول و غیره دریافت می کند. آخرین لایه نشان دهنده خروجی های شبکه است.

با این حال، اگر چرخه ای در شبکه وجود داشته باشد، دانشمندان کامپیوتر آن را شبکه عصبی بازگشتی می نامند و آرایش نورون ها می تواند پیچیده تر از شبکه های عصبی پیشخور باشد.

الهام بخش اولیه شبکه های عصبی مصنوعی از زیست شناسی بود، اما به زودی زمینه های دیگر شروع به شکل دادن به توسعه آنها کردند. اینها شامل منطق، ریاضیات و فیزیک بود. فیزیکدان جان هاپفیلد از ایده های فیزیک برای مطالعه نوع خاصی از شبکه عصبی تکرارشونده استفاده کرد که امروزه شبکه هاپفیلد نامیده می شود. به طور خاص، او پویایی آنها را مطالعه کرد: در طول زمان چه اتفاقی برای شبکه می افتد؟

شبکه هاپفیلد

هاپفیلد در استفاده از مدل‌های فیزیک، به ویژه مدل‌هایی که برای مطالعه مغناطیس توسعه یافته‌اند، برای درک پویایی شبکه‌های عصبی مکرر، پیشگام بود. او همچنین نشان داد که دینامیک آنها می تواند به چنین شبکه های عصبی شکلی از حافظه بدهد.

در طول دهه 1980، جفری هینتون، ترنس سجنووسکی، عصب‌بیولوژیست محاسباتی و دیگران، ایده‌های هاپفیلد را برای ایجاد کلاس جدیدی از مدل‌ها به نام ماشین‌های بولتزمن، به نام فیزیکدان قرن نوزدهم، لودویگ بولتزمن، گسترش دادند. همانطور که از نام آن پیداست، طراحی این مدل ها ریشه در فیزیک آماری پیشگام بولتزمن دارد. برخلاف شبکه‌های هاپفیلد که می‌توانند الگوها را ذخیره کرده و خطاها را در الگوها تصحیح کنند – مانند غلط‌گیر املا، ماشین‌های بولتزمن می‌توانند الگوهای جدیدی تولید کنند و در نتیجه بذر انقلاب مولد هوش مصنوعی مدرن را بکارند.

اگر می خواهید شبکه های عصبی مصنوعی کارهای جالبی انجام دهند، باید به نوعی وزنه های مناسب را برای اتصالات بین نورون های مصنوعی انتخاب کنید. پس انتشار یک الگوریتم کلیدی است که انتخاب وزن ها را بر اساس عملکرد شبکه در مجموعه داده های آموزشی امکان پذیر می کند. انتشار پس‌پشتی اولین بار در زمینه تئوری کنترل توسعه یافت و توسط پل وربوس در سال 1974 در شبکه‌های عصبی اعمال شد. در دهه 1980، هینتون و همکارانش نشان دادند که انتشار پس‌انداز می‌تواند به لایه‌های میانی شبکه عصبی کمک کند تا ویژگی‌های مهم ورودی را بیاموزند. به عنوان مثال، نورونی که یاد می گیرد چشم ها را در یک تصویر تشخیص دهد، ویژگی مهمی را یاد گرفته است که برای تشخیص چهره مفید است.

ماشین آلات بولتزمن و پس انتشار

این داستان به روز شده است تا روشن شود که هینتون به پیشرفت کمک کرد، اما پس‌پروپولیشن را اختراع نکرد.

منبع: shafaghnews.com

Related Articles

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

Back to top button