برخورد با موانع زمانی رخ میدهد که فاصله ربات تا موانع از آستانهای کمتر شود. در شبیهسازیها این آستانه ۱۰ میلیمتر در نظر گرفته شده است. نسبت کل تعداد برخوردها در یک آزمایش به تعداد کل گامهای طی شده به عنوان معیاری برای امنیت عملکرد ربات در نظر گرفته می شود، که به صورت درصد بیان می شود.
سرعت مسیر طی شده تا هدف (SP)
تعداد گامهای لازم برای رسیدن به هدف نسبت به مدت زمان طی شده، که به صورت درصد بیان می شود، به عنوان معیار کمی سنجش سرعت مسیر طی شده تا هدف در نظر گرفته شده است. این معیار مبین این است که به طور متوسط برای هر گام چند ثانیه زمان لازم بوده است.
در هر آزمایش چنانچه ربات موفق به رسیدن به هدف میشد، مقادیر پارامترهای F S و SP به عنوان نتایج آن آزمایش در نظر گرفته میشدند. در هر محیط شبیهسازی شده، ۵ حالت مختلف برای مکان ربات و هدف به طور تصادفی در محیط انتخاب شدند. هر آزمایش ۱۰ بار تکرار شده است، تا نتایج به دست آمده معتبر باشند. نتیجه نهایی هر آزمایش میانگین این ۱۰ بار تکرار میباشد. با توجه به خصوصیات آماری نظیر واریانس، تکرار بیشتر از ۱۰ بار آزمایشها تغییر چندانی در نتایج حاصل ایجاد نمیکردند، لذا ۱۰ بار تکرار مناسب فرض شد. برای هر محیط نتیجه کلی میانگین نتایج مربوط به هریک از ۵ حالت در نظر گرفته شده برای مکانهای ربات و هدف بوده است. سپس، از نتایج حاصل از محیطهای با سطح پیچیدگی یکسان میانگین گرفته شد که در جدول(۵-۲) آمده است. همچنین، مقادیر کمترین و بیشترین به دست آمده برای معیارهای FS و SP نیز گزارش شده اند.
برای نشان دادن نقش موثر یادگیری Q در تنظیم برخط سامانه فازی و افزایش کارآیی آن، آزمایشها با یک مجموعه قانون فازی مشابه با مجموعه قانون مطرح شده در فصل ۴ ولی با خروجیهای ثابت تکرار شدند. این خروجیهای ثابت، برابر با میانگین شش گزینه موجود برای زوایای چرخش در خروجیهای مجموعه قانون فازی الگوریتم پیشنهادی انتخاب شدند. روند به دست آوردن نتایج آزمایشها مطابق آنچه در مورد الگوریتم پیشنهادی انجام شده، بوده است. جدول(۵-۳) نتایج حاصل از به کارگیری الگوریتم فازی را نشان میدهد. مقایسه نتایج، حاکی از برتری الگوریتم یادگیری Q فازی نسبت به الگوریتم فازی (بدون یادگیری Q) از نظر موفقیت در رسیدن به هدف، سرعت، امنیت و انعطافپذیری میباشد. همانگونه که انتظار میرود عملکرد الگوریتم فازی با افزایش پیچیدگی محیط، با توجه به مقادیر معیارهای تعریف شده، رو به وخامت میرود. پارامتر SP که نماینده سرعت مسیر میباشد، تقریبا برای هر دو الگوریتم یادگیری Q فازی و فازی در سه گروه محیطها ثابت و اندکی با پیچیدگی محیط رو به کاهش است. این کاهش به دلیل افزایش بیشتر زمان نسبت به تعداد گامها میباشد.
جدول(۵-۲): عملکرد الگوریتم یادگیری Q فازی پیشنهادی
GR | SP | SF | انواع محیط | ||||
بیشترین | میانگین | کمترین | بیشترین | میانگین | کمترین | ||
۱۰۰ | ۸۰/۳۴ | ۶۱/۳۱ | ۷۰/۲۴ | ۸۲/۲۴ | ۸۵/۷ | ۰ | ساده |
۷۶/۹۴ | ۸۰/۳۵ | ۵۶/۳۱ | ۰۰/۲۶ | ۱۳/۳۶ | ۴۰/۱۳ | ۰ | معمولی |
۲۲/۹۱ | ۷۰/۳۵ | ۲۴/۳۱ | ۳۰/۲۲ | ۷۸/۵۶ | ۷۳/۱۸ | ۶۳/۳ | پیچیده |