تاریخچه و مبانی هوش مصنوعی

هوش مصنوعی چیست

تاریخچه و مبانی هوش مصنوعی

هوش مصنوعی (Artificial intelligence) که به اختصار به آن AI یا MI نیز گفته می‌شود، به هوشمند شدن ماشین‌ها اشاره دارد. در این مبحث، هوشمندی ماشین‌ها، در قیاس با هوش طبیعی (natural intelligence) موجود در انسان‌ها و دیگر حیوانات مورد بررسی قرار می‌گیرد.

در علوم کامپیوتر به انجام پژوهش در زمینه «هوش مصنوعی»، مطالعه «عامل‌های هوشمند» نیز می‌گویند. هر دستگاهی که محیط خود را درک کند و بر اساس ادراکش اقدامی انجام دهد که شانس دستیابی موفقیت‌آمیز به هدف را بیشینه کند، یک عامل هوشمند است. به عبارت دیگر، ماشینی که بتواند محیط را درک کند و بر اساس ادراکی که از محیط به دست آورده برای رسیدن به یک هدف خاص تصمیم‌گیری کرده و اقدامی را انجام دهد که امکان موفقیت آن بیشترین میزان ممکن است، یک عامل هوشمند نامیده می‌شود. در واقع، عبارت «هوش مصنوعی» زمانی به‌کار می‌رود که ماشین عملکردهای «شناختی» مانند «یادگیری» و «حل مساله» را که مرتبط با مغز انسان است تقلید می‌کند.

دامنه موضوعاتی که در زمینه هوش مصنوعی قابل بررسی و پژوهش هستند گسترده است و از این رو درباره آن اختلاف نظرهایی وجود دارد. با افزایش توانمندی ماشین‌ها، دیگر صحبت از انجام وظایف نیازمند «هوشمندی» نیست؛ و این منجر به ایجاد پدیده‌ای به نام «اثر هوش مصنوعی» (AI effect) می‌شود. پدیده اثر هوش مصنوعی موجب می‌شود دامنه مفاهیم هوش مصنوعی تا جایی گسترش یابد که پژوهشگران این حوزه یک تعریف کنایه‌ای برای آن ارائه کنند. در این تعریف آمده: «هوش مصنوعی یعنی انجام دادن کاری که پیش از این انجام نشده است».

برای مثالی از گستردگی موضوعات قابل انجام در هوش مصنوعی می‌توان به تشخیص کاراکتر اپتیکی اشاره کرد که معمولا خارج از مباحث هوش مصنوعی مطرح می‌شود و به یک فناوری معمول مبدل شده است. دیگر قابلیت‌های هوش مصنوعی شامل درک زبان انسانی، رقابت کردن در بازی‌های استراتژیک سطح بالا (مانند شطرنج و Go)، خودروهای خودران، مسیریابی هوشمند در شبکه‌های انتقال محتوا و شبیه‌سازی‌های نظامی می‌شود.

هوش مصنوعی در سال ۱۹۵۶ به عنوان یک زمینه دانشگاهی مطرح شد و از آن زمان تاکنون چندین موج بهبود و شکست را به خود دیده است. به شکست‌هایی که در زمینه ارتقا این دانش به وقوع پیوسته، اصطلاحا «زمستان هوش مصنوعی» می‌گویند. به دنبال این شکست‌ها، رویکردهای نو، موفقیت‌های چشم‌گیر و سرمایه‌گذاری‌های جدیدی نیز در این زمینه صورت پذیرفته است. در راستای گستردگی موضوعات موجود در هوش مصنوعی، آن‌ها را به زیردسته‌هایی تقسیم کرده‌اند که اغلب ارتباطی با یکدیگر ندارند. این زیربخش‌های موضوعی بر مبنای ملاحظات فنی مانند اهداف خاص (برای مثال، رباتیک و یادگیری ماشین)، استفاده از ابزارهای مشخص (منطق یا شبکه‌های عصبی)، یا تفاوت‌های عمیق فلسفی تعیین شده‌اند.

تاریخچه و مبانی هوش مصنوعی

اهداف دیرینه‌ای که در پژوهش‌های هوش مصنوعی همواره قصد پرداختن به آن‌ها وجود داشته شامل استدلال، ارائه دانش، برنامه‌ریزی، یادگیری، پردازش زبان طبیعی، ادراک و توانایی حرکت دادن و دست‌کاری کردن اشیا می‌شود. «هوش عمومی» یکی از اهداف بلند مدتی است که هوش مصنوعی در صدد دستیابی به آن است. رویکردهای هوش مصنوعی شامل روش‌های آماری، هوش محاسباتی و هوش مصنوعی نمادین سنتی می‌شود. ابزارهای زیادی از جمله بهینه‌ساز ریاضیاتی و جست‌و‌جو، شبکه‌های عصبی، روش‌های مبتنی‌بر آمار و احتمالات و اقتصاد نیز در هوش مصنوعی مطرح هستند. دانش یاد شده، در زمره علوم کامپیوتر، ریاضیات، روانشناسی، زبان‌شناسی، فلسفه و بسیاری از دیگر علوم می‌گنجد.

مبحث هوش مصنوعی براساس این ادعا ایجاد شده که انسان‌ها موجوداتی هوشمند و به دنبال ساخت ماشین‌هایی با چنین ویژگی (هوشمندی) هستند. «ماشین هوشمند»، ماشینی است که می‌تواند هوشمندی انسان را شبیه‌سازی کند. همین موضوع، منجر به ایجاد بحث‌های فلسفی گوناگونی درباره ماهیت ذهن انسان و رعایت اصول اخلاقی در ساخت موجودات هوشمند با هوش انسان‌گونه شده است. این چالش‌ها در آثار حماسی، ریاضیاتی، روانشناسی، زبان‌شناسی، فلسفی و دیگر پژوهش‌های علمی مورد بررسی قرار گرفته‌اند.

با وجود گستردگی مفهومی و مزایایی که هوش مصنوعی برای انسان‌ها در پی دارد، برخی افراد بر این باورند که اگر این مبحث به صورت افسارگسیخته‌ای پیشرفت کند، به خطری برای نوع بشر مبدل می‌شود. این در حالیست که گروهی دیگر نیز باور دارند هوش مصنوعی، برخلاف انقلاب فناوری، خطر بیکاری حجم عظیمی از انسان‌ها را به دنبال دارد. با وجود نظرات انتقادی و مخالفت‌هایی که با هوش مصنوعی شده و می‌شود، در قرن بیست و یکم، روش‌های مورد استفاده در این دانش به واسطه مزایای پیشرفته‌ای که در قدرت محاسباتی، پردازش حجم انبوه داده‌ها، و درک مباحث نظری داشتند، حیاتی دوباره گرفتند؛ و در حال حاضر هوش مصنوعی بخشی اساسی از صنعت فناوری است که به حل چالش‌های گوناگون در علوم رایانه کمک می‌کند.

تاریخچه

در آثار ادبی و علمی دوران باستان از مصنوعات دارای قابلیت تفکر، با عنوان دستگاه‌های سخن‌گو یاد شده است. از جمله آثار تخیلی که موجودات هوشمند در آن‌ها به نقش‌آفرینی می‌پردازند می‌توان به کتاب «فرانکنشتاین» اثر «مری شلی» و نمایشنامه «کارخانه ربات‌سازی روسوم» اثر «کارل چاپک» اشاره کرد. شخصیت‌های هوشمند موجود در این داستان‌ها با چالش‌های بسیاری مواجهند. امروزه نیز چالش‌های مشابهی در بحث «اخلاق هوش مصنوعی» مطرح هستند.

مطالعه در زمینه استدلال رسمی یا مکانیکی به آثار دوران باستان فلاسفه و ریاضی‌دانان باز می‌گردد. طی همین پژوهش‌ها و براساس مطالعات انجام شده در زمینه منطق ریاضیاتی، «نظریه محاسبات» آلن تورینگ مطرح شد. براساس این نظریه، یک ماشین با ترکیب نمادهای ساده ۰ و ۱، می‌تواند هرگونه استنتاج ریاضیاتی امکان‌پذیری را انجام دهد. این نگرش که رایانه‌های دیجیتال می‌توانند هرگونه فرآیند استدلال رسمی را شبیه‌سازی کنند با عنوان «تز چرچ-تورینگ» (Church–Turing thesis) شناخته شده است.

با وقوع هم‌زمان اکتشافات گوناگون در زمینه علوم اعصاب، نظریه اطلاعات و سایبرنتیک، پژوهشگران احتمال ساخت یک مغز الکترونیکی را نیز مطرح کرده و در نظر گرفتند. تورینگ در همین رابطه می‌گوید: «اگر انسان نتواند بین پاسخی که از ماشین دریافت می‌کند و پاسخ یک انسان، تمایزی قائل شود، می‌توان گفت ماشین هوشمند است». تلاش‌های اولیه انجام شده در راستای ساخت ماشین هوشمندی که در آزمون تورینگ موفق عمل کند امروزه با عنوان هوش مصنوعی شناخته می‌شوند و حاصل طراحی رسمی «مک‌کلوچ» و «پیتز» جهت ساخت «عصب‌های مصنوعی» تورینگ کامل است. در نظریه محاسبات، سیستم قوانین تغییر داده‌ها در حالتی تورینگ کامل نامیده می‌شود که بتوان برای شبیه‌سازی آن‌ها از ماشین تورینگ تک نواری استفاده کرد.

تاریخچه و مبانی هوش مصنوعی

پژوهش در زمینه هوش مصنوعی برای اولین بار در سال ۱۹۵۶ در کارگاهی در کالج دارتموث مطرح شد. شرکت‌کنندگان این کارگاه، آلن نیوول و هربرت سیمون از دانشگاه کارنگی ملون (CMU)، جان مک‌کارتی و ماروین مینسکی از موسسه فناوری ماساچوست (دانشگاه MIT) و آرتور ساموئل از شرکت IBM، به بنیان‌گذاران و رهبران پژوهش‌های هوش مصنوعی جهان مبدل شدند.

این افراد و دانشجویانشان برنامه‌هایی را ایجاد کردند که در رسانه‌ها و مطبوعات دوران از آن‌ها با عنوان برنامه‌های شگفت‌انگیز یاد می‌شد. از جمله این موارد می‌توان به نرم‌افزار دارای قابلیت یادگیری استراتژی‌های بازی چکرز (Draughts/checkers) که در سال ۱۹۵۴ تولید شد (و در سال ۱۹۵۹ گزارش شد که این برنامه از میانگین عملکرد یک انسان بهتر عمل می‌کنند)، برنامه‌های حل مسائل جبری، اثبات نظریه‌های منطقی (برنامه رایانه‌ای Logic Theorist که اولین‌بار در سال ۱۹۵۶ مورد بهره‌برداری قرار گرفت) و سخن گفتن ماشین به زبان انگلیسی اشاره کرد. دپارتمان دفاع ایالات متحده آمریکا، در اواسط سال ۱۹۶۰، روی پژوهش‌های انجام شده در زمینه هوش مصنوعی سرمایه‌گذاری انبوهی صورت داد. همچنین، در دیگر نقاط جهان نیز آزمایشگاه‌هایی در این زمینه تاسیس شدند.

بنیان‌گذاران هوش مصنوعی به آینده این علم خوش‌بین بودند. هربرت سیمون پیش‌بینی کرد که «ماشین‌ها طی بیست سال آینده قادر به انجام هر کاری هستند که یک انسان بتواند انجام دهد». ماروین مینسکی با این نظر موافق است ولی با طعنه این پرسش را مطرح می‌کند که «آیا با گذشت یک نسل … مساله ساخت هوش مصنوعی به‌طور اساسی حل خواهد شد؟». ولیکن، بنیان‌گذاران این علم در شناسایی فعالیت‌های لازم جهت رشد و توسعه و دستیابی به اهداف تبیین شده برای آن شکست خوردند. در نتیجه، پیشرفت هوش مصنوعی کند شد و در سال ۱۹۷۴ در پاسخ به انتقادهای انجام شده از «سِر جیمز لایت‌هیل» و فشاری که به کنگره آمریکا برای سرمایه‌گذاری بیشتر روی پروژه‌های تولیدی وارد شد، هم دولت ایالات متحده و هم انگلستان به پژوهش‌های خود در عرصه هوش مصنوعی پایان دادند. سال‌های بعد از این جریان را به دلیل سختی‌های ایجاد شده در سرمایه‌گذاری برای پروژه‌های هوش مصنوعی، «زمستان هوش مصنوعی» می‌گویند.

در اوایل سال ۱۹۸۰، پژوهش‌های هوش مصنوعی با کسب موفقیت‌های تجاری در «سیستم‌های خبره» (expert systems)، حیاتی دوباره یافتند. سیستم‌های خبره شکلی از برنامه‌های شبیه‌سازی شده هستند که دانش و مهارت‌های تحلیلی موجود در انسان خبره را شبیه‌سازی می‌کنند. در سال ۱۹۸۵، سهم هوش مصنوعی از بازار به بیش از یک میلیارد دلار رسید. در همان دوران، با معرفی پروژه رایانه‌های نسل پنجم در ژاپن، دولت‌های ایالات متحده آمریکا و انگلستان بار دیگر به سرمایه‌گذاری در پژوهش‌های دانشگاهی حوزه هوش مصنوعی روی آوردند. اگرچه با فروپاشی ماشین Lisp در سال ۱۹۸۷، این علم بار دیگر دچار تخریب و نسل جدیدی از بدگویی‌ها و مخالفت‌های شدید با آن آغاز شد.

در اواخر سال ۱۹۹۰ میلادی و اوایل قرن ۲۱، هوش مصنوعی در لُجستیک، داده‌کاوی، تشخیص پزشکی و دیگر زمینه‌ها مورد بهره‌برداری قرار گرفت. طی این سال‌ها، با افزایش قدرت محاسباتی رایانه‌ها و تاکید بر حل مسائل خاص با استفاده از هوش مصنوعی، تلاقی‌های جدیدی بین این علم و دیگر علوم (مانند آمار، اقتصاد و ریاضیات) به وجود آمد و پژوهشگران به استفاده از روش‌های ریاضیاتی و استانداردهای علمی در این زمینه روی آوردند که منجر به کسب موفقیت‌های متعددی شد.

در راستای موفقیت‌های به دست آمده برای هوش مصنوعی، می‌توان به دیپ بلو (Deep Blue)، اولین رایانه دارای مهارت بازی شطرنج اشاره کرد که توانست قهرمان شطرنج جهان، «گری کاسپاروف» را با نتیجه ۳،۵ به ۲،۵ طی ۶ مسابقه در ۱۱ می ۱۹۹۷ شکست دهد. در سال ۲۰۱۱ نیز طی مسابقات تلویزیونی «جپاردی!» (!Jeopardy)، سیستم پرسش و پاسخ IBM با نام «واتسون» موفق به شکست دادن دو قهرمان جپاردی، «برد راتر» و «جن جینگیز» با اختلاف امتیاز قابل توجهی شد.

تاریخچه و مبانی هوش مصنوعی

رایانه‌های سریع‌تر، بهبود الگوریتم‌ها و دسترسی داشتن به حجم بیشتری از داده‌ها، پیشرفت‌هایی را در یادگیری و ادراک ماشین به‌دنبال داشت؛ روش‌های یادگیری عمیق بالاترین بنچ‌مارک‌های صحت را در سال ۲۰۱۲ به خود اختصاص دادند. کینکت، که یک رابط سه‌بُعدی تشخیص حرکت-بدن برای Xbox 360 و Xbox 1 فراهم می‌کند و همچنین دستیارهای شخصی دیجیتال به کار رفته در گوشی‌های هوشمند، از ادغام الگوریتم‌های هوش مصنوعی که طی سال‌های طولانی پژوهش در این حوزه کشف شدند، حاصل شده است.

در ماه مارس سال ۲۰۱۶، «آلفاگو» (AlphaGo) طی پنج مسابقه با قهرمان بازی Go، «لی سدُل»، موفق شد چهار بار او را مغلوب کند. آلفاگو در واقع اولین سیستم رایانه‌ای بازیکن Go بود که موفق به پیروزی در مقابل حریف خود بدون هندیکپ شد. در رویداد سال ۲۰۱۷ « Future of Go Summit»، سیستم آلفاگو، مسابقات سه مرحله‌ای را در مقابل «کِ جی» برد که برای دو سال متوالی در رتبه اول جهان قرار داشت. این پیروزی، به نقطه عطفی در توسعه هوش مصنوعی مبدل شد، زیرا Go یک بازی با درجه پیچیدگی فوق‌العاده بالا است که به مراتب از شطرنج نیز پیچیده‌تر محسوب می‌شود.

مطابق مطلب منتشر شده از جک کلارک در بلومبرگ نیوز، تعداد پروژه‌های نرم‌افزاری که در سال ۲۰۱۵ از هوش مصنوعی بهره می‌بردند از رقم کم و پراکنده پیشین به بیش از ۲۷۰۰ پروژه رسید و موجب شد این سال نقطه عطفی برای این علم باشد. همچنین، آمارهای واقعی منتشر شده توسط کلارک حاکی از آن است که نرخ خطا در برنامه‌های پردازش تصویر از سال ۲۰۱۱ به‌طور موثری کاهش پیدا کرده است. او این اتفاق را به افزایش دسترسی‌پذیری شبکه‌های عصبی، به دلیل رشد زیرساخت‌های پردازش ابری، ابزارهای پژوهش و مجموعه داده‌ها مربوط دانسته است. دیگر مثال‌های عنوان شده در زمینه پیشرفت هوش مصنوعی مربوط به توسعه سیستم اسکایپ مایکروسافت که می‌تواند متن را به‌طور خودکار از یک زبان به زبان دیگر ترجمه کند و همچنین، سیستم فیس‌بوک است که توانایی تشریح تصاویر را برای افراد نابینا دارد. در نظرسنجی انجام شده در سال ۲۰۱۷، از هر پنج شرکت، یک مورد گزارش داده که از هوش مصنوعی در فرآیندها یا برخی فعالیت‌های خود استفاده می‌کند.

مبانی

یک عامل هوشمند، محیط خود را درک می‌کند و بر اساس ادراک حاصل شده، اقدامی را انجام می‌دهد که شانس دستیابی موفقیت‌آمیز به هدف را بیشینه کند. تابع هدف هوش مصنوعی می‌تواند ساده (مثلا، اگر عامل هوشمند برنده بازی Go شود «یک» و در غیر این صورت «صفر») یا پیچیده (برمبنای ریاضیات عملیاتی را انجام بده که پیش از این برای انجام آن جایزه دریافت کرده‌ای) باشد. اهداف را می‌‌توان به صورت ضمنی تعریف و یا آن‌ها را استنتاج کرد. در همین راستا، اگر هوش مصنوعی برای «یادگیری تقویتی» برنامه‌ریزی شود، اهداف را می‌توان به‌طور ضمنی با دادن پاداش به برخی از رفتارها و تنبیه کردن دیگر رفتارها تعیین کرد. از سوی دیگر، یک سیستم تکامل یافته می‌تواند با استفاده از «تابع برازش»، سیستم‌های هوش مصنوعی امتیاز بالا را جهش داده و تکثیر کند تا به اهداف خود دست یابد. روش بیان شده مشابه با راهکاری است که از آن با عنوان «پرورش گزینشی» یاد می‌شود؛ در این شیوه هدف توسعه صفاتی خاص در برخی از حیوانات، مانند سگ‌ها است به شکلی که این صفات در نسل‌های بعدی آن‌ها به صورت غریزی وجود داشته باشد. به عنوان مثالی دیگر برای این امر می‌توان به شیوه کشف غذا توسط حیوانات اشاره کرد.

در برخی از روش‌های هوش مصنوعی مانند الگوریتم نزدیک‌ترین همسایگی، استدلال با استفاده از تقلید کردن انجام می‌شود. در چنین روش‌هایی، به جای تعیین اهداف سیستم در ابتدای امر، مجموعه داده‌های برچسب‌دار به عنوان ورودی الگوریتم داده می‌شوند. در واقع، برای هر نمونه داده مشخص می‌شود که خروجی نهایی چه بوده (برچسب) و سیستم براساس آن می‌آموزد که در هر شرایط چگونه عمل کند و یا برای یک ورودی مشخص، خروجی نهایی سیستم چیست. چنین سیستم‌هایی بی‌هدف هستند و برای تخصیص بنچ‌مارک به آن‌ها باید در چارچوبی هدف‌دار تعریفشان کرد. از این‌رو معمولا آن‌ها را به عنوان سیستم‌هایی تعریف می‌کنند که «هدفشان» انجام دادن مجموعه‌ای محدود از وظایف دسته‌بندی است.

هوش مصنوعی مبحثی است که حول محور استفاده از الگوریتم‌ها جریان دارد. یک الگوریتم، مجموعه‌ای از دستورالعمل‌های شفاف (و غیر مبهم) است که یک رایانه مکانیکی می‌تواند آن‌ها را اجرا کند. الگوریتم‌های پیچیده معمولا بر مبنای دیگر الگوریتم‌های ساده‌تر ساخته می‌شوند. یک مثال ساده از الگوریتم، دستورالعمل زیر برای بازی تیک‌تاک‌تو (ایکس-او یا همان دوز) است.

  1. اگر بازیکن دارای «تهدید» است (یعنی دارای دو مهره در یک سطر است)، مربع دیگر (در همان سطر) را بگیر. در غیر این‌صورت،
  2. اگر انجام یک حرکت منجر به ساخت دو تهدید به طور هم‌زمان شود، آن حرکت را انجام بده، در غیر این‌صورت،
  3. اگر مربع مرکزی خالی است آن را بگیر، در غیر این‌صورت،
  4. اگر رقیب شما در گوشه بازی می‌کند، گوشه مقابل را بگیر، در غیر این‌صورت،
  5. در صورت وجود یک گوشه خالی آن را بگیر، در غیر این‌صورت،
  6. هر مربع خالی موجودی را بگیر

تاریخچه و مبانی هوش مصنوعی

بسیاری از الگوریتم‌های هوش مصنوعی قادر به یادگیری از داده‌ها هستند. این الگوریتم‌ها می‌توانند خودشان را با یادگرفتن از اکتشافات جدید (جست‌و‌جوی اکتشافی یا هیوریستیک روشی برای حل مسائل هوش مصنوعی است) بهبود ببخشند و یا حتی الگوریتم‌های دیگری بنویسند. به لحاظ تئوری می‌توان گفت برخی از «یادگیرندگان» (الگوریتم‌های هوش مصنوعی)  شامل شبکه‌های بیزی، درخت‌های تصمیم و نزدیک‌ترین همسایگی می‌توانند در صورت در اختیار داشتن داده، زمان و حافظه نامحدود بیاموزند که هر تابعی، از جمله هرگونه ترکیبی از توابع ریاضی، را تخمین بزنند تا جهان (منظور محیط پیرامون عامل هوشمند است) را به بهترین شکل توصیف کنند.

بنابراین به لحاظ تئوری این یادگیرندگان می‌توانند همه دانش‌های ممکن را با در نظر گرفتن کلیه فرضیه‌های ممکن و مطابقت دادن آن‌ها با داده‌ها، استخراج کنند. این در حالیست که در عمل به دلیل وقوع پدیده «انفجار ترکیبی» (Combinatorial explosion) در نظر گرفتن کلیه احتمالات هرگز ممکن نیست. انفجار ترکیبی پدیده‌ای است که به علت رشد نمایی زمان مورد نیاز برای حل مساله – با افزایش حالات در نظر گرفته شده – به وقوع می‌پیوندد. در اغلب پژوهش‌های هوش مصنوعی به این مساله پرداخته شده که چگونه می‌توان پهنه وسیع احتمالات ممکن در یک مساله خاص که برای حل آن مفید نیستند را در نظر نگرفت.

برای مثال، هنگام مشاهده نقشه و جست‌و‌جو برای یافتن کوتاه‌ترین مسیر از مشهد به بیرجند در ناحیه شرقی ایران، در اغلب موارد می‌توان از مسیرهای موجود در سنندج و دیگر نواحی غربی چشم‌پوشی کرد. بدین‌ ترتیب، یک عامل هوشمند مجهز به الگوریتم مسیریابی (مثلا الگوریتم *A) می‌تواند با در نظر گرفتن محتاطانه‌تر مسیرها از وقوع پدیده انفجار ترکیبی جلوگیری کند.

سریع‌ترین (و ساده‌ترین برای درک) رویکرد برای هوش مصنوعی نمادگرایی (مانند منطق رسمی) است: «اگر یک فرد بزرگسال تب دارد، پس ممکن است آنفولانزا داشته باشد». رویکرد دوم، و عمومی‌تر، استنباط بیزی است: «اگر بیمار در حال حاضر تب دارد، به هر حال احتمال دارد آنفولانزا داشته باشد». سومین رویکرد، که استفاده از آن در کسب‌و‌کارها بسیار مرسوم است، بهره‌گیری از روش‌های قیاسی مانند ماشین بردار پشتیبان و نزدیک‌ترین همسایگی است. در چنین روش‌هایی، پس از بررسی و مقایسه کردن نمونه داده‌های موجود از بیماران قدیم که ویژگی‌های سن، علائم بیماری و درجه حرارت بدن آن‌ها بیشترین تطابق را با بیمار کنونی دارد، و بررسی اینکه چند درصد از آن بیماران به آنفولانزا مبتلا شده‌اند می‌توان نتیجه‌گیری کرد چه میزان احتمال دارد بیمار کنونی نیز به آنفولانزا مبتلا باشد». رویکرد چهارم درک مساله، سخت‌تر و الهام گرفته از چگونگی عملکرد دستگاه مغز است. بر اساس رویکرد شبکه‌های عصبی، یاخته‌های عصبی (نورون) مصنوعی می‌توانند به‌وسیله مقایسه خودشان با خروجی مورد انتظار و با تغییر دادن نقاط قوت ارتباطات بین نورون‌های داخلی جهت «تقویت» ارتباطاتی که به نظر مفید می‌رسند، یادگیری را انجام دهند.

این چهار رویکرد اصلی، می‌توانند با یکدیگر و با سیستم تکامل یافته، هم‌پوشانی داشته باشند. برای مثال، شبکه‌های عصبی قادر هستند بیاموزند که چگونه استنباط، عمومی‌سازی و تقلید کنند. برخی از سیستم‌های هوش مصنوعی به طور ضمنی یا صریح از چند مورد از این رویکردها در کنار بسیاری از دیگر الگوریتم‌های هوش مصنوعی و غیر هوش مصنوعی (روش‌های آماری و دیگر موارد) استفاده می‌کنند. لازم به ذکر است، بهترین رویکرد معمولا بسته به مساله متفاوت خواهد بود.

تاریخچه و مبانی هوش مصنوعی

الگوریتم‌های یادگیری بر این اساس هستند که استراتژی‌ها، الگوریتم‌ها و استنتاج‌هایی که در گذشته عملکرد خوبی داشته‌اند، احتمال دارد در آینده نیز به خوبی کار کنند. چنین استنباط‌هایی می‌توانند بسیار واضح و ساده باشند، مثلا «از آنجا که طی ۱۰۰۰۰ سال گذشته خورشید هر روز صبح طلوع کرده، فردا نیز طلوع خواهد کرد.» و یا منحصر به فرد باشند، مانند «X٪ تیره‌های موجودات زنده دارای گونه‌های جغرافیایی مجزا با تنوع رنگی هستند، بنابراین Y٪ شانس آن وجود دارد که قوهایی به رنگ مشکی نیز وجود داشته باشند». برخی از یادگیرندگان براساس مبانی «تیغ اوکام» کار می‌کنند که براساس آن ساده‌ترین نظریه برای تشریح داده‌ها، محتمل‌ترین آن‌ها است. بنابراین، یادگیرنده برای موفق شدن، باید به‌گونه‌ای طراحی شود که جز در مواردی که نظریات پیچیده اساسا بهتر هستند، نظریات ساده‌تر را به نظریات پیچیده‌تر ترجیح دهد. بنا نهادن یادگیرنده برمبنای نظریات بد و بیش از اندازه پیچیده منجر به برازش نامناسب داده‌های آموزش می‌شود که به آن بیش‌برازش می‌گویند.

بسیاری از سیستم‌ها تلاش می‌کنند به یک روش، متناسب با اینکه چقدر خوب داده‌ها را برازش می‌کند پاداش داده و براساس میزان پیچیدگی آن را تنبیه کنند. علاوه بر بیش‌برازش کلاسیک، یادگیرندگان می‌آموزند که چگونه با «آموختن درس غلط» ناامید شوند. به عنوان مثالی ساده از این امر می‌توان به یک «دسته‌بند» (classifier) تصاویر اشاره کرد که فقط با عکس‌های اسب‌های قهوه‌ای و گربه‌های سیاه آموزش داده شده است. بنابراین، دسته‌بند ممکن است چنین نتیجه‌گیری کند که هر بخش قهوه‌ای رنگی در تصویر یک اسب است. یک مثال جهان واقعی از این مساله آن است که بر خلاف انسان‌ها، روش‌های دسته‌بندی تصاویر موجود، ارتباط فضایی بین مولفه‌های تصویر را تشخیص نمی‌دهند. بلکه، الگوهایی از پیکسل‌ها را می‌آموزند که انسان‌ها به آن‌ها بی‌توجهند، و به‌طور خطی بین تصاویری از یک نوع مشخص همبستگی برقرار می‌کنند. وجود حجم زیادی از چنین الگوهایی روی تصاویر عادی، منجر به ایجاد یک تصویر «غلط انداز» می‌شود که سیستم نمی‌تواند آن را طبقه‌بندی کند.

هوش مصنوعی در حال حاضر در مقایسه با انسان‌ها فاقد برخی از ویژگی‌های انسانی است که از آن جمله می‌توان به استدلال مبتنی بر «خرد جمعی» اشاره کرد. انسان‌ها دارای مکانیزم‌های قدرتمندی برای استدلال درباره موضوعات عامیانه فیزیک مانند فضا، زمان و تعاملات فیزیکی هستند. این امر حتی کودکان را قادر می‌سازد که به سادگی استنباط‌هایی مانند اینکه «اگر این مداد را از روی میز قِل بدهم به زمین می‌افتد» انجام دهند. انسان‌ها همچنین یک مکانیزم قدرتمند برای «روانشناسی مردمی» دارند که به آن‌ها کمک می‌کند جملات زبان طبیعی مانند «مدیر مدرسه با دادن مجوز به دانش‌آموزان مخالفت کرد زیرا آن‌ها از بی‌نظمی حمایت می‌کردند» را تفسیر کنند.

این در حالیست که یک عامل هوشمند به سختی می‌تواند بفهمد که آیا واقعا دانش‌آموزان از بی‌نظمی حمایت می‌کردند یا مدیر تمایلی به انجام فعالیت فوق برنامه نداشته است. این فقدان «دانش عمومی» اغلب بدین معناست که هوش مصنوعی اشتباهاتی متفاوت با انسان انجام می‌دهد، که ممکن است برای انسان غیر قابل درک و عحیب به نظر برسد. به عنوان مثالی دیگر می‌توان به خودروهای خودرانی اشاره کرد که از هوش مصنوعی استفاده می‌کنند. این خودروها نمی‌توانند استدلالی درباره اینکه هدف بعدی عابر پیاده (موقعیتی که قصد دارد به آن حرکت کند) چیست داشته باشند، در حالی‌که یک انسان راننده می‌تواند برای این شرایط به استدلال مشخصی دست یابد.

گردآوری توسط: تحقیقستان

2442

راه موفقیت، همیشه در حال ساخت است؛ موفقیت پیش رفتن است، نه به نقطه پایان رسیدن . ما در تحقیقستان تلاش میکنیم تا بهترین ها را برای شما به ارمغان آوریم.

ارسال دیدگاه

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

magnifier
توسط
تومان