Free bitcoin, bitcoin advertising, ptc

شبکه های عصبی مصنوعی یا Artificial neural network چیست؟

5 (100%) 1 vote

در همین لحظه که شما دارید این کلمات را میخوانید از مجموعه پیچیده ای از شبکه های عصبی در مغز و سیستم عصبی خود استفاده می کنید.

این مجموعه به هم پیوسته از ۱۰به توان ۱۱ نورون عصبی تشکیل می شود که یک ساختار با زیبا و با شکوه از بافت ها و فعل و انفعالات شیمیایی را تشکیل می دهند.

برخی از ساختار های عصبی از همان ابتدای تولد با شما همراه هستند و برخی دیگر با توجه به تجربیات شما در طول زندگی به وجود می ایند.

دانشمندان در حال حاظر در ابتدای راه شناخت شبکه های عصبی هستند و تنها بر روی نحوه ی عملکرد این مجموعه تمرکز کرده اند.

طبق کشفیات به عمل آمده همه توابع عصبی زنده مثل حافظه، در نورون ها و ارتباط بین آنها ذخیره می شوند.

یادگیری به معنای آغاز برقراری یک ارتباط جدید بین نورون ها و یا تغییر در ارتباطات موجود می باشد.

تاریخچه

تاریخچه شبکه های عصبی مصنوعی پر از افراد خلاقی از رشته های مختلف علمی است که هر یک از آن ها چندین دهه برای توسعه مفاهیمی که ما در حال حاضر آن ها را در اختیار داریم، تلاش کرده اند.

برای پیشرفت فناوری دو عنصر لازم و ضروری می باشند: مفهوم و پیاده سازی.

در درجه اول باید مفهوم هر فناوری مشخص شود.

مفهوم به معنی نحوه فکر کردن به یک موضوع و ایجاد یک دیدگاه جدید می باشد.

مفهوم می تواند شامل یک ایده ساده باشد و یا ممکن است خاص تر بوده و شامل یک توصیف ریاضی باشد.

برای روشن تر شدن این مطلب باید نگاهی به تاریخچه شناخت قلب انسان نگاهی بیاندازیم.

به  قلب انسان برای سال ها به عنوان مرکز روح و یا یک منبع گرمایی نگاه می شد.

در قرن هفدهم و با آغاز آزمایشات پزشکی نگاه به قلب عوض شد و عملکرد پمپ مانند آن کشف گردید و از آن پس آزمایشاتی برای مطالعه نحوه  عماکرد آن آغاز شد.

این آزمایشات دید بشر را در مورد نحوه گردش خون در بدن دچار تخئل اساسی ساخت.

همانطور که دیدید بدون شناخت مفهوم پمپ فهمیدن نحوهی عملکرد قلب بسیار دور از ذهن می باشد.

مفاهیم و ریاضیات ضمیمه شده به آن ها به تنهایی برای رشد یک فناوری کافی نیستند و نیاز به راهی برای پیاده سازی سیستم می باشد.

به عنوان مثال، ریاضیات مورد نیاز برای بازسازی تصاویر پرتو نگاری امراض سالهاست که در دسترس می باشند اما عملیاتی کردن این روش ها نیازمند کامپیوتر های بسیار سریع و الگوریتم های کارا می باشد.

تاریخچه شبکه های عصبی با گذر از هر دو مرحله ابداع مفهوم و پیاده سازی شکل گرفته است.

در برخی از فعالیت های اولیه در زمینه شبکه های عصبی در اواخر قرن نوزدهم و اوایل قرن بیستم به وقوع پیوستند.

این فعالیت ها در زمینه های مختلف علمی نظیر فیزیک، روانشناسی و فیزیولوژی اعصاب توسط دانشمندانی نظیر هرمان وان هلمولتز، ارنست ماخ و ایوان پاولوف صورت گرفته است.

در این فعالیت های اولیه تئوری های یادگیری، بینایی و شرطی سازی قوت یافتند و البته صحبتی در مورد مدل های ریاضی عملیات های عصبی در بین نبود.

نگاه مدرن به شبکه های عصبی در دهه ۱۹۴۰ و با شروع به کار وارن مک کالج و والتر پیتز آغاز شد.

آن ها نشان دادند که شبکه ای از نرون های عصبی دارای قابلیت محاسبه هر تابع ریاضی و یا منطقی می باشند.

فعالیت آن ها در این زمینه را می توان به عنوان مبدا علم شبکه های عصبی مصنوعی در نظر گرفت.

راه مک کالچ و پیتز توسط دونالد هب ادامه یافت.

او مکانیسمی برای یادگیری در نورون های عصبی زنده پیشنهاد کرد.

اولین کاربرد علمی شبکه های عصبی زنده در اواخر دهه ۱۹۵۰ شکل گرفت.

در این سالها شبکه های پرسپترون و قواعد یادگیری آن توسط فرانک روزنبلات ابداع شد.

روزنبلات و همکاران او ضمن ساخت یک شبکه پرسپترون ثابت کردند که این شبکه ها دارای توانایی تشخیص الگو می باشند.

این موفقیت ها منجر به بوحود آمدن علاقه به تحقیق در این زمینه بین محققان شد.

متاسفانه  شبکه های عصبی پرسپترون تنها قابلیت حل مجموعه محدودی از مسائل را دارا بودند.

در همان زمان برنارد ویدرو و تد هوف یک الگوریتم یادگیری جدید را مطرح ساختند و از آن برای آموزش یک شبکه عصبی خطی انطباقی استفاده نمودند.

طرح آن ها از نظر ساختار قابلیت تشابه زیادی با پرسپترون ورزنبلات داشت.

قواعد یادگیری ویدرو-هوف امروزه نیز دارای کاربرد زیادی می باشند.

متاسفانه شبکه های روزنبلات و ویدرو هر دو از محدودیت های مشابهی برخوردار بودند.

به این محدودیت ها به صورت مفصل در کتابی از ماروین مینسکی و سیمور پاپرت پرداخته شد.

با آگاهی روزنبلات و ویدرو از این محدودیت ها، آنها شبکه های جدیدی را برای غلبه به این محدودیت ها پیشنهاد دادند.

اما به هر حال آن ها موفق به تغییر الگوریتم های یادگیری ابداعی خودشان در راستای آموزش شبکه های پیچیده تر نشدند.

بسیاری از محققان تحت تاثیر کتاب مینسکی و پاپرت در مورد پیشرفت علم دچار تردید شدند.

همچنین عدم وجود کامپیوتر های دیجیتال قدرتمند مزید بر علا شد تا تحقیقات در این زمینه برای چند دهه مسکوت بماند.

در دهه ۱۹۷۰ یک سری تقیقات اثرگذار در این زمینه انجام شد.

در سال ۱۹۷۲ تئو و کوهنن و جیمز اندرسون مستقلا و به صورت جداگانه یک شبکه عصبی جدید که می توانست به عنوان یک حافظه عمل کند را توسعه دادند.

استفان گراسبرگ نیز در این دوره بسیار فعال بود و در زمینه شبکه های خود سازمان تحقیقات وسیعی انجام داد.

علاقه به شبکه های مصنوعی را اواخر دهه ۶۰ به خاطر کمبود ایده های جدید و نبود کامپیوتر های قدرتمند دچار وقفه شده بود.

در دهه ۱۹۸۰ هر دوی این موانع از پیش روی برداشته شد و تحقیقات در زمینه شبکه های عصبی جان تازه ای گرفت.

کامپیوتر های شخصی جدید و ایستگاه ای کاری به سرعت رشد یافتند و به صور گسترده در دسترس قرار گرفتند.

علاوه بر آن مفاهیم جدید و همهی شکل پیدا کردند.

پیدایش مفاهیم جدید یاد شده منجر به تولد دوباره شبکه های عصبی شد.

اولین مفهوم استفاده از مکانیسم های آماری برای تشریح عملکرد کلاس خاصی از شبکه های Recurrent بود که می توانستند به عنوان حافظه انجمنی مورد استفاده قرار گیرند.

این مفهوم در یک مقاله و در سمیناری توسط جان هاپفیلد مطرح شد.

دومین مفهوم کلیدی موثر در پیشرفت های دهه ۸۰ الگوریتم پس انتشار برای آموزش شبکه های پرسپترون چند لایه بود.

این مفهوم مستقلا توسط چندین محقق کشف شد.

تاثیرگذار ترین مقالات در زمینه الگوریتم پس انتشار توسط دیوید روملهارت و جیمز مک کلیلند مطرح شدند.

این الگوریتم جوابی به انتقادات مینسکی و پاپرت در دهه ۱۹۶۰ بود.

این پیشرفت های جدید جان تازه ای به علم شبکه های عصبی بخشید.

در ده سال اخیر بیش از هزاران مقاله در این زمینه نوشته شده است و شبکه های عصبی دارای کاربرد بسیار زیادی شده اند و هر روزه زمزمه تازه ای در مورد یک تئوری جدید و یا یک کاربرد جدید به گوش می رسد.

در تاریخچه مختصر ذکر شده هر چند تمام فعل و انفعالات و افراد موثر ذکر نشدند اما به هر حال سعی شد تا یک شناخت اولیه در مورد نحوه توسعه این زمینه در خواننده ایجاد شود.

همانطور که مشاهده شد پیشرفت در این زمینه یک سیر ثابت نداشته است بلکه در برخی از دوره ها سرعت توسعه سریع و در برخی دیگر روند توسعه دچار رکود و خلل شده است.

بسیاری از پیشرفت ها در زمینه شبکه های عصبی بر مبنای دو مفهوم اساسی معماری و قواعد یادگیری انجام می شود. البته نمی توان از نقش کامپیوتر های قدرتمند برای آزمایش مفاهیم جدید مطرح شده صرف نظر نمود.

فیسبوک توییتر گوگل + لینکداین تلگرام واتس اپ کلوب

Free bitcoin, bitcoin advertising, ptc

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *