زمان برگزاری: دو شنبه 3 دی ماه 1403 ساعت 9 الی 12 شرح موضوع کارگاه: شبکه عصبی عمیق یک تکنیک یادگیری ماشین است که به رایانهها میآموزد تا آنچه را که به طور طبیعی برای انسان اتفاق میافتد انجام دهند، یعنی همان یادگیری با دیدن مثال. الگوریتم های شبکه عصبی از مغز انسان و عملکردهای آن الهام گرفته¬اند و مانند ذهن انسان، نه تنها با پیروی از یک لیست از پیش تعیین شده از قوانین، بلکه با پیش¬بینی راه حل¬ها و نتیجه¬گیری بر اساس تکرارها و تجربیات قبلی، طراحی شده-اند. این شبکه ها با لایه های متعددی از گره ها یا نورون های به هم پیوسته مشخص می¬شوند که هر کدام مسئول پردازش و تبدیل داده های ورودی هستند. آن¬ها توانایی یادگیری از داده¬ها و بهبود عملکرد خود در طول زمان را دارند. در یادگیری عمیق، یک مدل کامپیوتری یاد می گیرد که وظایف طبقه بندی را مستقیماً از روی تصاویر، متن یا صدا انجام دهد. مدلهای یادگیری عمیق میتوانند به دقت پیشرفتهای دست یابند، که گاهی اوقات از عملکرد سطح انسانی فراتر میرود. این مدلها با استفاده از مجموعه بزرگی از دادههای برچسبگذاری شده و معماریهای شبکه عصبی که حاوی لایههای زیادی هستند، آموزش داده میشوند. شبکه های عصبی عمیق در طیف وسیعی از کاربردها از جمله تشخیص تصویر، پردازش زبان طبیعی و تشخیص گفتار استفاده می شوند. در این کارگاه قصد داریم به معرفی شبکه¬های عصبی عمیق و نحوه عملکرد آن¬ها در یادگیری بپردازیم. همچنین با بررسی مدل¬های مختلف عمیق در محیط¬های برنامه نویسی Python قصد داریم تا مخاطبان را با برنامه نویسی و پیاده سازی شبکه¬های عصبی عمیق و همچنین نحوه یادگیری آن¬ها، آشنا سازیم. عنوان مطالبی که در این کارگاه بررسی می¬شوند، در ادامه آورده شده است. سرفصل مطالب:
Section 1:
Overview of Neural network Basics & Deep Learning Convolutional Neural Networks (CNN) Introduction to generative models: • Autoencoders (AE, DAE, VAE) • Generative Adversarial Networks (GANs) Transfer learning • Leveraging pre-trained models to accelerate learning for new tasks. Introduction to the “Hugging Face” Platform • Overview of the Hugging Face ecosystem. • Hands-on experience with integrating AI models in Python for practical use cases. Section 2: In this section, we welcome you with the following titles and implementations. Transformers: Introduction and motivation • Why transformers? (from RNNs and LSTMs to Transformers) • Transformers attention and self-attention mechanism Vision Transformers (Vision Transformers or ViTs are a type of transformer architecture that has been adapted for computer vision tasks) • Structure of vision transformers • Image classification with vision transformer • Swin transformers: Efficient transformers in terms of memory • Image classification with swin transformer • FasterViT: Fast Vision Transformers with Hierarchical Attention
مخاطبان کارگاه: مخاطبان اصلی این کارگاه میتواند دانشجویان رشتههای مهندسی و علوم پایه را شامل شود. آشنایی با برخی مفاهیم ریاضی و هوش مصنوعی میتواند در درک بهتر مفاهیم سودمند باشد. همچنین بهتر است با یکی از زبان¬های برنامه نویسی پایتون یا متلب در سطح مقدماتی، آشنایی داشته باشید. مجریان کارگاه: دکتر اقبال منصوری: دانشیار دانشکده مهندسی برق و کامپیوتر (سرپرست کارگاه) سبحان سیامک: دانشجوی دکتری مهندسی کامپیوتر - گرایش هوش مصنوعی عباس مهربانیان: دانشجوی کارشناسی ارشد مهندسی کامپیوتر - گرایش هوش مصنوعی
© کلیه حقوق این وب سایت محفوظ می باشد . طراحی و پیاده سازی شده توسط : همایش نگار ( ویرایش 10.0.6)