مقایسه شبکه عصبی با سایر روشهای هوش مصنوعی - هفت خط کد انجمن پرسش و پاسخ برنامه نویسی

مقایسه شبکه عصبی با سایر روشهای هوش مصنوعی

+1 امتیاز
سلام- لطفا دوستان طبق مطالعات خود چند خط درباره مزایا و معایب شبکه های عصبی نسبت به سایر روشهای هوش مصنوعی توضیح دهید.
سوال شده آذر 21, 1396  بوسیله ی matlabhosein (امتیاز 90)   12 36 39

5 پاسخ

+1 امتیاز

هوش مصنوعی

 

هوش مصنوعی در دهه ۱۹۷۰ به دنیا آمد, زمانی که تعدادی از پیشگامان علوم رایانه‌ای شروع به پرسیدن این پرسش کردند که آیا می‌توان از کامپیوترها برای " تفکر " استفاده کرد - پرسشی که پیامدهای آن امروزه هنوز در حال بررسی است. تعریف دقیق این زمینه به شرح زیر خواهد بود:

تلاش برای خودکارسازی فعالیت‌های عقلانی که معمولاً توسط انسان‌ها انجام می‌شود. به این ترتیب, هوش مصنوعی یک حوزه عمومی است که شامل یادگیری ماشین و یادگیری عمیق است, اما شامل بسیاری از رویکردهایی می‌شود که شامل هیچ یادگیری نیست. برای مثال, برنامه‌های اولیه شطرنج تنها شامل قوانینی است که توسط برنامه نویسان ساخته شده‌اند و به عنوان یادگیری ماشین واجد شرایط نیستند. برای مدتی نسبتاً طولانی, بسیاری از کارشناسان بر این باور بودند که هوش مصنوعی سطح انسانی می‌تواند با داشتن مجموعه‌ای از قوانین صریح برای دستکاری دانش به دست آید. این رویکرد به عنوان شاخص هوش مصنوعی شناخته می‌شود والگوی غالب در هوش مصنوعی است.

اگرچه هوش مصنوعی برای حل مسایل کاملاً مشخص و منطقی مناسب است, اما برای حل مسایل پیچیده و گنگ, مانند طبقه‌بندی تصویر, تشخیص گفتار و ترجمه زبانی, برای حل مسایل پیچیده و گنگ, غیرممکن است.

 

پاسخ داده شده فروردین 9, 1398 بوسیله ی farnoosh (امتیاز 8,362)   20 44 59
ویرایش شده فروردین 10, 1398 بوسیله ی مصطفی ساتکی
+1 امتیاز

یادگیری ماشین

در انگلستان ویکتوریا Ada دوست و همدست چارلز Babbage، مخترع موتور تحلیلی بود: اولین هدف عمومی شناخته‌شده، کامپیوتر مکانیکی. اگر چه بلندپرواز و بسیار جلوتر از زمان خودش، به عنوان یک کامپیوتر هدف عمومی در دهه ۱۸۳۰ و ۱۸۴۰ طراحی شده‌بود، زیرا مفهوم محاسبات با هدف کلی هنوز اختراع نشده بود. صرفاً به این معنا بود که راهی برای استفاده از عملیات مکانیکی برای خودکار کردن محاسبات خاص در حوزه آنالیز ریاضی بود که  از این رو، موتور تحلیلی نام گرفت.

در سال ۱۸۴۳، Ada Lovelace  در مورد اختراع اظهار داشت: " موتور تحلیلی ادعای هیچ چیزی را ندارد. این کار می‌تواند هر کاری که ما می‌دانیم را انجام دهد … این ابزار برای کمک به ما در فراهم کردن آنچه که قبلاً با آن آشنا هستیم، کمک می‌کند."

 

این اظهارات بعدها توسط آلن تورینگ از پیشگامان هوش مصنوعی ، به عنوان "اعتراض به Lady Lovelace" در کتاب نقطه عطف "ماشین‌آلات و اطلاعات"، نقل شد  که آزمون تورینگ و همچنین مفاهیم کلیدی را معرفی کرد که برای شکل دادن به هوش مصنوعی به کار خواهند رفت. Turing در حالی که فکر می‌کرد که آیا کامپیوترهای شخصی قادر به یادگیری و اصالت هستند یا نه، و او به این نتیجه رسید که آن‌ها می‌توانند.

یادگیری ماشینی از این سوال ناشی می‌شود: آیا یک کامپیوتر می‌تواند فراتر از آنچه ما می‌دانیم استفاده کنیم و نحوه انجام یک کار مشخص را یاد بگیریم؟ آیا کامپیوتری می‌تواند ما را غافلگیر کند؟ به جای برنامه نویسان که قواعد پردازش داده را با دست انجام می‌دهند، یک کامپیوتر به طور خودکار این قوانین را با نگاه کردن به داده‌ها یاد می‌گیرد؟

این سوال در را به یک پارادایم برنامه‌نویسی جدید باز می‌کند. در برنامه‌نویسی سنتی، پارادایم نمادین هوش مصنوعی، قوانین ورودی انسان (یک برنامه) و داده‌ها مطابق با این قواعد پردازش می‌شوند و پاسخ می‌آیند (شکل ۱.۲ را ببینید). با یادگیری ماشین، داده‌های ورودی انسان و همچنین پاسخ‌های مورد انتظار از داده‌ها و خارج شدن از قانون. سپس این قواعد می‌توانند برای داده‌های جدید بکار گرفته شوند تا پاسخ‌های اصلی تولید شوند.

 

یادگیری ماشین

شکل ۱.۲. یادگیری ماشین: یک نمونه برنامه‌نویسی جدید

 

سیستم یادگیری ماشین به جای برنامه‌ریزی صریح، آموزش داده می‌شود. آن با مثال‌های فراوانی مرتبط با یک کار ارائه می‌شود، و ساختار اماری در این مثال‌ها پیدا می‌کند که در نهایت به سیستم اجازه می‌دهد تا با قواعد خودکار کردن تکلیف به کار خود ادامه دهد. به عنوان مثال، اگر می‌خواهید وظیفه برچسب زدن عکس‌های تعطیلات خود را خودکار کنید، می‌توانید یک سیستم یادگیری ماشین با مثال‌های زیادی از تصاویر که قبلاً توسط انسان‌ها علامت‌گذاری شده‌اند را ارایه کنید، و این سیستم قوانین آماری را برای تداعی عکس‌های خاص به برچسب‌های خاص یاد خواهد گرفت.

 

اگرچه یادگیری ماشین تنها در دهه ۱۹۹۰ شروع به شکوفایی کرد، اما به سرعت تبدیل به محبوب‌ترین و موفق‌ترین گروه هوش مصنوعی شد، روندی که از دسترس بودن سخت‌افزار سریع‌تر و مجموعه داده‌های بزرگ‌تر ناشی می‌شود. یادگیری ماشین به شدت مربوط به آمار ریاضی است، اما از چندین روش مهم متفاوت است. برخلاف آمار، یادگیری ماشینی تمایل دارد با مجموعه داده‌های پیچیده و پیچیده (مانند مجموعه داده‌ها از میلیون پیکسل) سروکار داشته باشد، که هر کدام متشکل از ده‌ها هزار پیکسل هستند که تحلیل آماری کلاسیک مانند آنالیز بیزی غیرعملی است. در نتیجه، یادگیری ماشین، و به خصوص یادگیری عمیق، نظریه نسبتاً کمی ریاضی دارد - شاید خیلی کم - و مهندسی محور است. این یک نظم و انضباط است که در آن ایده‌ها به طور تجربی بیشتر از لحاظ نظری ثابت می‌شوند.

 

پاسخ داده شده فروردین 9, 1398 بوسیله ی farnoosh (امتیاز 8,362)   20 44 59
ویرایش شده فروردین 10, 1398 بوسیله ی مصطفی ساتکی
0 امتیاز

یادگیری عمیق 

یادگیری عمیق یک زیر حوزه خاص از یادگیری ماشین است. کلمه عمیق در یادگیری عمیق, اشاره به هر نوع درک عمیق به‌دست‌آمده از مسئله ندارد بلکه به ایده لایه‌های متوالی یا چندین لایه ی که یک مدل را ایجاد می‌کنند, عمق مدل نامیده می‌شود. نام‌های مناسب دیگر برای این زمینه می‌تواند بازنمایی لایه‌ای و یادگیری سلسله مراتبی باشد. یادگیری عمیق مدرن اغلب شامل ده‌ها یا صدها لایه متوالی است  و آن‌ها به طور خودکار از مواجهه با داده‌های آموزشی یاد می‌گیرند. در این میان رویکردهای دیگر به یادگیری ماشین اغلب بر یادگیری فقط یک یا دو لایه از داده‌ها متمرکز هستند; در نتیجه آنها " گاهی یادگیری کم‌عمق نامیده می‌شوند.

در یادگیری عمیق, این نمایش‌های لایه‌ای (تقریبا همیشه) از طریق مدل‌های به نام شبکه‌های عصبی آموخته می‌شوند. اصطلاح شبکه عصبی یک مرجع برای زیست‌شناسی عصبی است, اما اگرچه برخی از مفاهیم محوری در یادگیری عمیق با الهام از درک ما از مغز توسعه یافته‌اند, مدل‌های یادگیری عمیق مدل‌های مغز نیستند. شواهدی وجود ندارد که مغز چیزی مانند مکانیسم‌های یادگیری مورد استفاده در مدل‌های یادگیری عمیق مدرن را به کار می‌برد. شما ممکن است بر روی مقالات علمی‌ تخیلی وارد شوید و اعلام کنید که یادگیری عمیق مانند مغز کار می‌کند و یا بعد از مغز مدل می‌شود, اما این حالت n است. برای تازه‌ واردها به این زمینه گیج‌کننده است که به یادگیری عمیق در هر شکلی که مربوط به زیست‌شناسی عصبی است فکر کند.

نمایش‌های آموخته‌شده توسط یک الگوریتم یادگیری عمیق چگونه هستند ؟ اجازه دهید بررسی کنیم که چگونه یک شبکه چند لایه عمیق , تصویری از یک حرف را تبدیل می‌کند تا بفهمیم کدام حرف است .

 

شکل 1.5 یک شبکه عصبی عمیق برای طبقه‌بندی رقم

 

همانطور که در شکل ۱.۶ می‌بینید، این شبکه تصویر حرفی را به شکلی تبدیل می‌کند که به طور فزاینده‌ای با تصویر اصلی متفاوت هستند و به طور فزاینده‌ای  نتیجه نهایی قابل فهم هستند. شما می‌توانید به یک شبکه عمیق به عنوان یک عمل تقطیر اطلاعات چند مرحله‌ای فکر کنید، که در آن اطلاعات از فیلترهای متوالی عبور می‌کند و به طور فزاینده‌ای خالص می‌شود (یعنی، با توجه به برخی کارها مفید است).

 

شکل 1.6 نمایش ژرف از طریق یک مدل طبقه‌بندی

 

یادگیری عمیق از لحاظ فنی چیست: روش چند مرحله‌ای برای یادگیری نمایش داده. این یک ایده ساده است - اما همانطور که مشخص می‌شود، مکانیسم‌های بسیار ساده، به اندازه کافی مقیاس بندی شده، می‌توانند مانند جادو به نظر برسند.

 
پاسخ داده شده فروردین 9, 1398 بوسیله ی farnoosh (امتیاز 8,362)   20 44 59
ویرایش شده فروردین 10, 1398 بوسیله ی مصطفی ساتکی
0 امتیاز

 

درک چگونگی کار یادگیری عمیق، در سه شکل

 

در این نقطه، شما می‌دانید که یادگیری ماشینی در مورد ورودی‌های نقشه‌برداری (مانند تصاویر) به اهداف (مانند برچسب "گربه") است، که با مشاهده بسیاری از نمونه‌های ورودی و هدف انجام می‌شود. شما همچنین می‌دانید که شبکه‌های عصبی عمیق این کار ورودی به هدف را از طریق یک دنباله عمیق از تبدیل داده‌های ساده (لایه‌ها) انجام می‌دهند و این عملیات در مواجهه با نمونه ها فرا گرفته می‌شوند. حالا بیایید ببینیم این یادگیری چطور اتفاق می‌افتد.

ویژگی این که یک لایه به داده‌های ورودی خود چه می‌کند در وزن لایه ذخیره می‌شود، که در اصل یک مشت اعداد هستند. به عبارت فنی، ما می‌گوییم که تغییر شکل داده‌ شده توسط یک لایه به وسیله وزنه‌های آن مشخص می‌شود (شکل ۱.۷ را ببینید). در این زمینه، یادگیری به معنی یافتن مجموعه‌ای از مقادیر برای وزن همه لایه‌ها در یک شبکه است، به طوری که شبکه، ورودی‌های نمونه را به اهداف مرتبط خود نگاشت کند. اما این یک چیز است: یک شبکه عصبی عمیق می‌تواند شامل ده‌ها میلیون پارامتر باشد. پیدا کردن مقدار صحیح برای همه آن‌ها ممکن است یک کار دلهره‌آور باشد، به خصوص با توجه به این که اصلاح مقدار یک پارامتر بر رفتار دیگران تاثیر خواهد گذاشت.

 

پاسخ داده شده فروردین 9, 1398 بوسیله ی farnoosh (امتیاز 8,362)   20 44 59
ویرایش شده فروردین 10, 1398 بوسیله ی مصطفی ساتکی
0 امتیاز

neural network, parameterized by weights

شکل ۱.۷. یک شبکه عصبی توسط وزنه‌های خود parameterized می‌شود .

 

برای کنترل چیزی ، ابتدا باید بتوانید آن را مشاهده کنید . برای کنترل خروجی یک شبکه عصبی باید قادر به اندازه‌گیری این باشید که این خروجی تا چه حد از آنچه انتظار داشتید ، فاصله دارد . این وظیفه تابع هزینه است که تابع هدف نیز نامیده می‌شود. تابع هزینه پیش‌بینی شبکه و هدف حقیقی ( آنچه که شما شبکه را می‌خواهید ) را می‌گیرد و امتیاز فاصله‌ای را محاسبه می‌کند ، ثبت این که چگونه شبکه در این مثال خاص چگونه انجام شده‌است ( شکل ۱.۸ را ببینید ) .

 

loss function

شکل ۱.۸ یک تابع افت کیفیت خروجی شبکه را اندازه‌گیری می‌کند.

 

نکته اصلی در یادگیری عمیق این است که این امتیاز را به عنوان یک سیگنال بازخورد برای تنظیم مقدار وزن‌ها به مقدار کمی ، در مسیری که امتیاز هزینه را برای مثال فعلی کاهش می‌دهد ( شکل ۱.۹ ) . این تنظیمات وظیفه بهینه سازاست ، که آن چیزی را که الگوریتم backpropagation نامیده می‌شود را اجرا می‌کند : الگوریتم مرکزی در یادگیری عمیق . فصل بعدی با جزییات بیشتر توضیح می‌دهد که چگونه backpropagation کار می‌کند .

شکل ۱.۹. نمره اتلاف به عنوان یک سیگنال بازخورد برای تنظیم وزن‌ها استفاده می‌شود .

 

در ابتدا ، مقادیر شبکه به مقادیر تصادفی اختصاص‌یافته است ، بنابراین شبکه صرفا ً مجموعه‌ای از تبدیلات تصادفی را اجرا می‌کند . طبیعتا ً، خروجی آن بسیار دور از چیزی است که باید باشد ، و مقدار loss آن بسیار بالا است . اما با هر نمونه از فرایندهای شبکه ، وزن‌ها کمی در جهت درست تنظیم می‌شوند و مقدار loss کاهش می‌یابد . این حلقه آموزشی است که تعداد کافی بار ( معمولا ده‌ها تکرار بر روی هزاران مثال را تکرار می‌کند )، مقادیر وزنی را به روز رسانی می کند  که تابع هزینه را به حداقل می‌رساند . یک شبکه با حداقل زیان ، خروجی‌های آن به نتایج مطلوب به همان اندازه نزدیک هستند که می‌توانند به اهداف برسند : یک شبکه آموزش‌دیده . یک‌بار دیگر ، یک مکانیزم ساده است که وقتی مقیاس بندی شده ، مثل جادو به پایان می‌رسد .

 

پاسخ داده شده فروردین 9, 1398 بوسیله ی farnoosh (امتیاز 8,362)   20 44 59
ویرایش شده فروردین 10, 1398 بوسیله ی مصطفی ساتکی
...