کلاسیفایرهای مبتنی بر تئوری تصمیم گیری بیز

مقدمه ای بر تئوری تصمیم گیری بیز

در این بخش و چند بخش آتی،در مورد کلاسیفایرهای مبتنی بر تئوری تصمیم­ گیری بیز صحبت می­کنیم. الگوریتم ­های این بخش و همچنین تمرین هایی که در این بخش گفته می شود برای درک بهتر این مفهموم و همچنین آشنایی با برخی از مفاهیم اساسی مربوط به کلاس­بندی بسیار مهم هستند. برخی از الگوریتم ها  در ساختار و درک ساده هستند.

بطور کلی در تسک کلاسبندی، یک پترن را دریافت میکنیم و تسک این است که آن را به یکی از c کلاس ،کلاس­بندی کنیم. تعداد کلاس­ها، c است و فرض میشود که از قبل معلوم است. هر الگو، با یک مجموعه از ویژگی­ها بصورت x(i)=1.2…,L مشخص می­شود، که یک بردار ویژگی Lبعدی را بصورت x={ [x(1),x(2),...x(l)] }^{ T }\in { R }^{ L } را ایجاد می­کنیم. فرض می­کنیم که هر الگو بطور یکتایی با بردار ویژگی منحصربفرد معرفی می­شود که می­تواند فقط به یکی از کلا­س­ها تعلق یابد.

تعریف 

یک X\in { R }^{ L } و یک مجموعه از کلاس­های c که بصورت  { w }_{ i },i=1,2,..,c   را دریافت می­کنیم. قاعده­ ی بیزین بصورت زیر است:

که { P(w }_{ i })  احتمال پیشینه ­ی کلاس { w }_{ i },i=1,2,..,c و { p(w }_{ i }|x) احتمال پاستریور برای کلاس{ w }_{ i }  نسبت به  xاست وp(x) تابع دانسیته­ ی احتمال(pdf) برحسب x و    { p(x|w }_{ i })    احتمال شرطی x نسبت به [

latex]{ w }_{ i }[/latex] است (که برخی اوقات دانسیته ­ی احتمال  برحسب x نامیده می­شود).

  

 تئوری تصمیم­ گیری بیز

الگویی که برچسب کلاس آن نامعلوم است را درنظر بگیرید که x={ [x(1),x(2),...x(l)] }^{ T }\in { R }^{ L } بردار ویژگی متناظر آن باشد، که براساس برخی اندازگیری­ ها بدست آمده ­اندو تعدادکلاس ­های ممکن، هم برابر است با c که عبارتند از{ w }_{ 1 },{ w }_{ 2 },...{ w }_{ c } .

مطابق با تئوری تصمیم ­گیری بیز، درصورتی x به کلاس { w }_{ i }  تعلق می­گیرد که داشته باشیم:

و یا داشته باشیم:

نکته: کلاسیفایر بیز  درحالتی بهینه است که احتمال خطا را حداقل کند.

 

تابع دانسیته­ ی احتمال گوسین:

Pdf گوسین، بدلیل سادگی ریاضیاتی و همچنین بدلیل تئوری محدوده­ ی مرکزی  بطور گسترده در شناسایی آماری الگو استفاده می­شود.  براساس تئوری محدوده­ ی مرکزی، pdf مجموعِ متغیرهای رندوم مستقل به یک عدد گاوسی تمایل دارند زیرا تعداد جملات به بینهایت میل می­کنند. در عمل، این تئوری برای تعداد زیاد و کافی از مجموع ­ها صادق است.

Pdf گاوسی چندبعدی بصورت زیر است:

کهm=E[x] بردار میانگین است و S ماتریس کوواریانس می­باشد که بصورت    S=E[(x-m){ (x-m) }^{ T }]تعریف می­شود و |S| دترمینان S است.

اغلب به pdf گوسی، pdfنرمال گفته می­شود و از نمادN(m,S) استفاده می­کنیم. برای حالت یک­ بعدی کهx\in R است، رابطه­ ی بالا بصورت زیر است:

که{ \sigma }^{ 2 }  واریانس متغیر رندوم x است.

 

در اینجا دو تمرین برای شما دوستان عزیر مطرح شده است، برای درک بهتر این بخش، کد مربوط به  این دو سوال را در متلب بنویسد(در صورتی که مشکلی در نوشتن کد داشتید در قسمت دیدگاه بیان کنید تا در اسرع وقت پاسخ داده شود ). در پست های آتی پاسخ آنها را  در این بخش از سایت قرار خواهم داد.

تمرین۱:

Pdf گوسی،  و بعبارت دیگر N(m,S) را در { x }_{ 1 }={ [2.2\quad -1.3] }^{ T } و { x }_{ 1 }={ [0.2\quad 1.3] }^{ T } را براساس اطلاعات زیر محاسبه کنید.

 

  

تمرین۲:

یک تسک کلاس­بندی دوبعدی را در فضای دوبعدی درنظر بگیرید، که دیتاها در هر دو کلاس دارای توزیع گوسی بصورتN({ m }_{ 1 },{ S }_{ 1 }) و N({ m }_{ 2 },{ S }_{ 2 }) هستند و داریم:

اگر { P(w }_{ 1 })={ P(w }_{ 2 })=1/2 باشد، { x }_{ 1 }={ [1.8\quad 1.8] }^{ T } را در یکی از کلاس­های { w }_{ 1 }  و یا { w }_{ 2 }  کلاس­بندی کنید.

 

 

اولین کانال آموزش رایگان دروس مربوط به رشته ی مهندسی پزشکی

 

 لینک کانال  

سوالات و دیدگاه خود را درباره ی این پست با ما درمیان بگذارید

1 پاسخ

تعقیب

  1. […] بخش­های قبل کلاسیفایرهای بیزین و همچنین کلاسیفایرهای حداقل فاصله را توضیح دادیم. در […]

دیدگاه خود را ثبت کنید

Want to join the discussion?
Feel free to contribute!

پاسخ دهید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *