مشاوره و آموزش تحصیلی ریسمونک
0

آموزش هوش مصنوعی در نرم افزار متلب

نرم افزار «متلب» (MATLAB) پیاده‌سازی برنامه‌های «هوش مصنوعی» (Artificial Intelligence) را آسان‌تر می‌سازد. متلب با برنامه‌های کاربردی هوش مصنوعی و همچنین ابزارها و توابع اختصاصی مدیریت داده، محیطی ایده‌آل برای به‌کارگیری روش‌های هوش مصنوعی و تجزیه و تحلیل داده‌ها به حساب می‌آید. علاوه بر آن در توسعه یک سیستم کاملاً مهندسی شده، متلب جزو معدود نرم‌افزارها و زبان‌های برنامه‌نویسی است که امکان یکپارچه‌سازی هوش مصنوعی را با «گردش کار» (Workflow) کامل فراهم می‌کند. در این نوشتار به منظور آموزش هوش مصنوعی در متلب مثال‌های متعددی را شرح داده‌ایم و کدهای مربوط به آن‌ها نیز ارائه شده‌اند. مراحل صفر تا صد توسعه روش‌ها و الگوریتم‌های هوش مصنوعی، از بارگذاری داده‌ها تا استقرار مدل‌ها در این مثال‌ها توضیح داده می‌شود.

 

 

همچنین در ریسمونک بخوانید:

رایج ترین اصطلاحات هوش مصنوعی

 

امکانات و مزایای متلب برای هوش مصنوعی

با متلب، مهندسان و «دانشمندان داده» (Data Scientists) به توابع از پیش ساخته شده، جعبه ابزارهای گسترده و برنامه‌های کاربردی تخصصی برای «طبقه‌بندی» (Classification)، «رگرسیون» (Regression)، «خوشه‌بندی» (Clustering) و دیگر موارد دسترسی فوری دارند. برخی از امکانات و مزایای متلب در توسعه مسائل هوش مصنوعی شامل موارد زیر می‌شود.

  • «استخراج ویژگی‌ها» (Feature Extraction) از سیگنال‌ها و تصاویر با استفاده از روش‌های دستی و خودکار تعیین شده و انتخاب خودکار ویژگی‌ها برای فشرده‌تر کردن مدل‌ها
  • بهینه‌سازی ویژگی‌ها با استفاده از روش‌های مختلف مهندسی ویژگی
  • امکان مقایسه رویکردهایی مانند «رگرسیون لجستیک» (Logistic Regression)، «درخت تصمیم» (Decision Tree)، «ماشین‌ بردار پشتیبان» (Support Vector Machine)، روش‌های جمعی و «یادگیری عمیق» (Deep Learning)
  • امکان پیاده‌سازی AutoML به منظور بهینه‌سازی مدل‌ها با استفاده از روش‌های کاهش و تنظیم «فراپارامتر» (Hyperparameter)
  • امکان یکپارچه‌سازی مدل‌های «یادگیری ماشین» (Machine Learning) در سیستم‌های سازمانی، خوشه‌ها و ابرها و همچنین امکان ادغام مدل‌های هدف با سخت‌افزار بلادرنگ تعبیه شده
  • تولید خودکار کدها برای تحلیل حسگرهای تعبیه شده
  • پشتیبانی گردش کار یکپارچه از مرحله تجزیه و تحلیل داده گرفته تا استقرار

یادگیری هوش مصنوعی در متلب

هوش مصنوعی چگونه کار می‌کند ؟

هوش مصنوعی در حالت کلی با استفاده از الگوریتم‌های یادگیری ماشین و روش‌های «بهینه‌سازی ریاضیاتی» (Mathematical Optimization) عمل می‌کند. یادگیری ماشین از دو روش «یادگیری نظارت شده» (Supervised Learning) و «یادگیری بدون نظارت» (Unsupervised Learning) برای دسته‌بندی و خوشه‌بندی داده‌ها استفاده می‌کند. یادگیری با نظارت مدلی را روی داده‌های ورودی و خروجی شناخته شده آموزش می‌دهد تا بتواند خروجی‌ها را در نمونه‌های جدید پیش‌بینی کند. یادگیری بدون نظارت الگوهای پنهان یا ساختارهای درونی را در داده‌های ورودی پیدا می‌کند.

بهینه سازی ریاضیاتی فرایندی است که در آن بهترین جواب از میان مجموعه‌ای از جواب‌های ممکن، برای یک مسأله خاص انتخاب می‌شود. بیشتر بهینه‌سازی‌های دنیای واقعی بسیار غیرخطی، چندوجهی و همراه با قیدهای پیچیده هستند. الگوریتم‌های «فرا ابتکاری» (Metaheuristic) نوعی از الگوریتم‌های «تصادفی» (Randomized Algorithems) هستند که برای یافتن پاسخ بهینه به‌کار می‌روند. برخی از الگوریتم‌های شاخص فرا ابتکاری شامل «الگوریتم‌های ژنتیک» (Genetic Algorithm)، «بهینه‌سازی کلونی مورچه‌ها» (Ant Colony Optimization Algorithms)، «ازدحام ذرات» (Particle Swarm) و دیگر موارد است.

پیش از شروع آموزش هوش مصنوعی در متلب ابتدا شرح مختصری برای هر یک از روش‌های مورد استفاده در هوش مصنوعی و یادگیری ماشین در زیربخش‌های بعدی ارائه شده است.

یادگیری با نظارت در هوش مصنوعی چیست ؟

یادگیری تحت نظارت مدلی را ایجاد می‌کند که بر اساس شواهد می‌تواند عمل «پیش‌بینی» (Prediction) را انجام دهد. یک الگوریتم یادگیری با نظارت مجموعه‌ای شناخته شده از داده‌های ورودی و پاسخ‌ها به آن داده‌ها را می‌گیرد و مدلی را به منظور ایجاد پیش‌بینی‌های منطقی برای پاسخ به داده‌های جدید آموزش می‌دهد. یادگیری نظارت شده از روش‌های طبقه‌بندی و رگرسیون برای توسعه مدل‌های یادگیری ماشین استفاده می‌کند.

روش‌های طبقه‌بندی یا همان Classification پاسخ‌های گسسته را پیش‌بینی می‌کنند. تشخیص ایمیل واقعی از هرزنامه و تشخیص تومور سرطانی خوش‌خیم از بدخیم مثال‌هایی از طبقه‌بندی در یادگیری ماشین هستند. مدل‌های طبقه‌بندی، داده‌های ورودی را در دسته‌های مختلف طبقه‌بندی می‌کنند. برخی از کاربردهای دسته‌بندی شامل تصویربرداری پزشکی، «بازشناسی گفتار» (Speech Recognition) و امتیازدهی اعتباری است.

اگر داده‌ها قابل برچسب‌گذاری و دسته‌بندی باشند یا قابلیت تفکیک به گروه‌ها یا کلاس‌های خاصی را داشته باشند، از طبقه‌بندی استفاده می‌شود. به عنوان مثال، برخی برنامه‌های کاربردی به منظور تشخیص متون دست‌نویس از طبقه‌بندی برای تشخیص حروف و اعداد استفاده می‌کنند. در «پردازش تصویر» (Image Processing) و «بینایی کامپیوتر» (Computer Vision) از روش‌های «بازشناسی الگو» (Pattern Recognition) نظارت شده برای «تشخیص اشیا» (Object Detection) و تقسیم‌بندی تصویر استفاده می‌شود.

طبقه بندی در متلب

الگوریتم‌های یادگیری تحت نظارت و نیمه نظارتی در مسائل «دودویی» (Binary) و چند کلاسه کاربرد دارند. طبقه‌بندی نوعی از یادگیری ماشینی نظارت شده است که در آن یک الگوریتم «یاد می‌گیرد» تا مشاهدات جدید را با توجه به نمونه‌ داده‌های برچسب‌گذاری شده طبقه‌بندی کند. برای کشف مدل‌های طبقه‌بندی به صورت تعاملی، می‌توان از برنامه کاربردی Classification Learner App در متلب استفاده کرد. در متلب این انعطاف‌پذیری و امکان وجود دارد که بتوان از خط فرمان برای وارد کردن مدل پیش‌بینی‌کننده، برچسب‌ها، داده‌ها و دیگر موارد در قالب یک «تابع برازش» (Fitness Function) استفاده کرد.

آموزش کلاسیفیکیشن در متلب
نمونه‌ای از طبقه‌بندی مجموعه داده آیریس در متلب

رگرسیون در یادگیری با نظارت

در مدل‌سازی آماری، تحلیل رگرسیون مجموعه‌ای از فرآیندهای آماری برای تخمین روابط بین یک متغیر وابسته با یک یا چند متغیر مستقل است. در اصطلاح یادگیری ماشین، متغیر وابسته «برچسب» (Label) نامیده می‌شود. همچنین متغیرهای مستقل، «متغیرهای پیش‌بینی‌کننده» (Predictors)، «متغیرهای کمکی» (Covariates)، «متغیرهای توضیحی» (Explanatory Variables) یا «ویژگی‌ها» (Features) نامیده می‌شوند.

رایج‌ترین شکل تحلیل رگرسیون، «رگرسیون خطی» (Linear Regression) است که در آن به دنبال یک خط (یا ترکیب خطی پیچیده‌تر) هستیم که بیشترین «برازش» (Fitness) را با داده‌ها دارد. جعبه ابزار Statistics and Machine Learning به شما امکان می‌دهد مدل‌های رگرسیون خطی، تعمیم یافته خطی و غیرخطی را برازش کنید. هنگامی که یک مدل رگرسیونی توسعه پیدا کرد، می‌توان از آن برای پیش‌بینی یا شبیه‌سازی پاسخ‌ها، ارزیابی برازش مدل با استفاده از «آزمون‌های فرضیه» (Hypothesis Test)، یا استفاده از نمودارها برای مصورسازی، بررسی «پسماندها» (Residuals) و اثرات متقابل استفاده کرد.

یادگیری بدون نظارت در متلب

یادگیری بدون نظارت الگوهای پنهان یا ساختارهای درونی را در داده‌های بدون برچسب پیدا می‌کند. «خوشه‌بندی» (Clustering) رایج‌ترین روش یادگیری بدون نظارت است که برای تجزیه و تحلیل داده‌های اکتشافی و برای یافتن الگوها یا گروه‌بندی‌های پنهان در داده‌ها استفاده می‌شود. برنامه‌های کاربردی متلب برای تجزیه و تحلیل خوشه‌‌بندی شامل تجزیه و تحلیل توالی ژن، تحقیقات بازار و تشخیص اشیا می‌شود.

خوشه بندی در متلب

تجزیه و تحلیل خوشه‌بندی که به آن تحلیل «بخش‌بندی» (Segmentation) یا «تقسیم‌بندی» (Taxonomy) هم گفته می‌شود، داده‌های نمونه را به گروه‌ها یا خوشه‌ها تقسیم می‌کند. خوشه‌ها به گونه‌ای تشکیل می‌شوند که اشیاء مشابه در یک خوشه قرار می‌گیرند و اشیاء در خوشه‌های مختلف، متمایز هستند. تولباکس Statistics and Machine Learning در متلب چندین روش خوشه‌بندی و معیارهای تشابه را که معیارهای فاصله نیز نامیده می‌شود برای ایجاد خوشه‌ها ارائه می‌دهد.

علاوه بر این، در ارزیابی خوشه‌بندی، تعداد بهینه خوشه‌ها با استفاده از معیارهای ارزیابی مختلف تعیین می‌شود. امکان نمایش و مصورسازی خوشه‌ها شامل «دندروگرام‌ها» (Dendrograms) و نمودارهای سیلوئت (Silhouette) و امکان دیگر نمایش‌های گرافیکی وجود دارد. این جعبه ابزار همچنین چندین قابلیت را برای «تشخیص ناهنجاری» (Anomaly Detection) و شناسایی داده‌های «پرت» (Outlier) دارد.

نمودار پراکنش در خوشه بندی

الگوریتم ژنتیک چیست؟

الگوریتم ژنتیک روشی برای حل مسائل بهینه‌سازی مقید و غیرمقید و مبتنی بر انتخاب طبیعی و مطابق با فرآیندی است که تکامل بیولوژیکی را هدایت می‌کند. الگوریتم ژنتیک به طور مکرر جمعیتی از راه‌حل‌های یکتا را تغییر می‌دهد. در هر مرحله، الگوریتم ژنتیک افرادی را از جمعیت فعلی به عنوان والدین انتخاب و از آنها برای تولید فرزندان برای نسل بعدی استفاده می‌کند. در طول نسل‌های متوالی، جمعیت به سمت یک راه حل بهینه «تکامل» می‌یابد.

می‌توان الگوریتم ژنتیک را برای حل آن دسته از مسائل بهینه‌سازی به‌کار برد که حل آن‌ها با استفاده از الگوریتم‌های بهینه‌سازی استاندارد مناسب نیستند، از جمله می‌توان به مسائلی اشاره کرد که در آنها تابع هدف ناپیوسته، مشتق‌ناپذیر، تصادفی یا بسیار غیرخطی است. الگوریتم ژنتیک می‌تواند مسائل برنامه‌نویسی اعداد صحیح مختلط را حل کند، که در آن برخی از مؤلفه‌ها محدود به مقادیر صحیح هستند. نمودار زیر جریان مراحل اصلی الگوریتم ژنتیک را تشریح می‌کند.

آموزش هوش مصنوعی در متلب و الگوریتم ژنتیک

الگوریتم ژنتیک از سه نوع قانون اصلی در هر مرحله برای ایجاد نسل بعدی از جمعیت فعلی استفاده می‌کند که شامل موارد زیر می‌شود.

  • قوانین «انتخاب» (Selection)، افرادی را انتخاب می‌کند که والدین نامیده می‌شوند و در نسل بعدی به تولید جمعیت کمک می‌کنند. انتخاب به طور کلی تصادفی است و می‌تواند به نمرات افراد بستگی داشته باشد.
  • قوانین «متقاطع» (Crossover)، دو والد را ترکیب می‌کند تا فرزندان نسل بعدی را تشکیل دهند.
  • قوانین «جهش» (Mutation)، تغییرات تصادفی را در هر یک از والدین اعمال می‌کند تا فرزندان را تشکیل دهند.

آموزش هوش مصنوعی در متلب برای طبقه بندی

در این قسمت از آموزش هوش مصنوعی در متلب ، ابتدا مروری داریم بر الگوریتم‌های طبقه‌بندی و امکاناتی که متلب در این خصوص فراهم کرده است و سپس با ارائه مثال به پیاده‌سازی برخی از این الگوریتم‌ها در محیط کدنویسی متلب خواهیم پرداخت.

الگوریتم‌های طبقه‌بندی و امکانات متلب برای آن ها

  • برنامه کاربردی Classification Learner App برای آموزش، اعتبارسنجی و تنظیم مدل‌های طبقه‌بندی
  • «درختان طبقه‌بندی» (Classification Trees)
  • «تجزیه و تحلیل تشخیصی یا افتراقی» (Discriminant Analysis)
  • «بیز ساده» (Naive Bayes)
  • «نزدیک‌ترین همسایه‌ها» (Nearest Neighbors)
  • «ماشین بردار پشتیبان» (Support Vector Machine)
  • «روش‌های جمعی» (Classification Ensembles)
  • «مدل افزایشی تعمیم یافته» (Generalized Additive Model)
  • «شبکه‌های عصبی» (Neural Networks)
  • «یادگیری افزایشی» (Incremental Learning)
  • «یادگیری نیمه‌نظارتی» (Semi-Supervised Learning for Classification)
  • «انصاف در طبقه‌بندی باینری» (Fairness in Binary Classification)
  • «تفسیرپذیری» (Interpretability) به منظور تفسیر مدل‌های دسته‌بندی پیچیده
  • «ساخت و ارزیابی مدل» (Model Building and Assessment) شامل انتخاب ویژگی، مهندسی ویژگی، انتخاب مدل، بهینه‌سازی هایپرپارامتر، «اعتبارسنجی متقابل» (Cross Validation)، ارزیابی عملکرد پیش‌بینی‌کننده و آزمون‌های مقایسه دقت طبقه‌بندی

در ادامه یک مجموعه داده شناخته شده، به نام داده‌‌‌های آیریس، را در نظر می‌گیریم و عمل طبقه‌بندی را به کمک برخی از الگوریتم‌های نام برده شده در محیط متلب بر روی این دیتاست پیاده‌سازی می‌کنیم. روش‌ها و الگوریتم‌های به‌کار رفته در این مثال شامل موارد زیر می‌شود.

  • تحلیل افتراقی
  • دسته‌بند بیز ساده
  • دسته‌بند درخت‌ تصمیم

مجموعه داده گل زنبق برای آموزش هوش مصنوعی در متلب

داده‌های گل «زنبق» (Iris) یک مجموعه داده شناخته شده است که در آموزش هوش مصنوعی در متلب، پایتون و دیگر ابزارهای تحلیل هوش مصنوعی بسیار مورد استفاده قرار می‌گیرد. این داده‌ها شامل چهار ویژگی «طول کاسبرگ» (Sepal Length)، «عرض کاسبرگ» (Sepal Width)، «طول گلبرگ» (Petal Length) و «عرض گلبرگ» (Petal Width) برای ۱۵۰ نمونه گل زنبق است. از قبل می‌دانیم که این مجموعه سه دسته از انواع گونه‌های زنبق را شامل می‌شود و هر دسته شامل ۵۰ نمونه است. در ابتدا باید داده‌ها را بارگذاری کنیم.

load fisheriris
f = figure;
gscatter(meas(:,1), meas(:,2), species,'rgb','osd');
xlabel('Sepal length');
ylabel('Sepal width');

کدهای فوق بارگذاری دیتاست (مجموعه داده) و ترسیم نمودار پراکندگی را انجام می‌دهند.

آموزش هوش مصنوعی در متلب و بارگذاری داده های iris

خروجی نمودار پراکندگی را در شکل فوق ملاحظه می‌کنید.

N = size(meas,1);

در این مسئله قصد داریم با توجه به ارتباط نوع گل با اندازه‌ کاسبرگ و گلبرگ آن، پیش‌بینی کنیم گل‌های جدید از چه نوعی خواهند بود. در ابتدا با استفاده از تحلیل افتراقی (تشخیصی) این مسئله را حل می‌کنیم.

آموزش هوش مصنوعی در متلب برای تحلیل افتراقی

آموزش هوش مصنوعی در متلب را با بررسی آنالیز افتراقی ادامه می‌دهیم. تابع fitcdiscr  می‌تواند طبقه‌بندی را با استفاده از روش‌های مختلف تحلیل افتراقی انجام دهد. ابتدا داده‌ها را با استفاده از تحلیل افتراقی خطی (LDA) طبقه‌بندی می‌کنیم.

lda = fitcdiscr(meas(:,1:2),species);
ldaClass = resubPredict(lda);

مشاهدات با برچسب‌های کلاس شناخته شده معمولاً «داده‌های آموزشی» (Training Data) نامیده می‌شوند. «خطای جایگزینی مجدد» (Resubstitution Error) در مجموعه آموزشی برابر است با نسبت مشاهداتی که به اشتباه طبقه‌بندی شده‌اند. در اینجا خطای جایگزینی مجدد را که به آن «خطای طبقه‌بندی اشتباه» (Misclassification Error) هم گفته می‌شود به کمک متلب محاسبه می‌کنیم.

ldaResubErr = resubLoss(lda)

بنابراین مقدار ldaResubErr برابر با ۰٫۲ خواهد بود. همچنین می‌توان «ماتریس درهم‌ریختگی» (Confusion Matrix) را در مجموعه آموزشی محاسبه کرد. یک ماتریس درهم‌ریختگی حاوی اطلاعاتی در مورد برچسب‌های کلاس شناخته شده و برچسب‌های کلاس پیش‌بینی شده است. به طور کلی، عنصر (i , j) در ماتریس درهم‌ریختگی تعداد نمونه‌هایی است که برچسب کلاس شناخته شده آنها، کلاس i و کلاس پیش‌بینی شده آنها j است. عناصر قطری مشاهداتی هستند که به درستی طبقه‌بندی شده‌اند.

figure
ldaResubCM = confusionchart(species,ldaClass);

کدهای فوق نمودار مربوط به ماتریس درهم‌ریختگی را توسعه می‌دهند که تصویر آن در ادامه آمده است.

آموزش هوش مصنوعی در متلب و ماتریس درهم ریختگی

از ۱۵۰ مشاهده آموزشی، ۲۰٪ مشاهدات (معادل با تعداد ۳۰ مشاهده) توسط تابع افتراقی خطی به اشتباه طبقه‌بندی می‌شوند.

figure(f)
bad = ~strcmp(ldaClass,species);
hold on;
plot(meas(bad,1), meas(bad,2), 'kx');
hold off;

با توجه به کد فوق، نمودار پراکندگی به شکل زیر خواهد بود.

آموزش هوش مصنوعی در متلب و تحلیل افتراقی خطی

این تابع، صفحه را به ناحیه‌های مختلفی تقسیم می‌کند که با خطوطی از هم جدا شده‌اند و مناطق مختلف را به انواع گونه‌های گل اختصاص می‌دهد. یکی از راه‌های مصورسازی این مناطق، ایجاد شبکه‌ای از مقادیر (x,y) و اعمال تابع طبقه‌بندی در آن شبکه است.

[x,y] = meshgrid(4:.1:8,2:.1:4.5);
x = x(:);
y = y(:);
j = classify([x y],meas(:,1:2),species);
gscatter(x,y,j,'grb','sod')

با توجه به کدهای فوق، ناحیه‌بندی خوشه‌ها به شکل زیر خواهد بود.

آموزش هوش مصنوعی در متلب و مصورسازی خوشه ها

 

آموزش هوش مصنوعی در متلب برای تحلیل افتراقی درجه دوم

در خصوص برخی از داده‌ها، ناحیه‌ها برای کلاس‌های مختلف به‌خوبی توسط خطوط حائل جدا نمی‌شوند. در چنین شرایطی، تحلیل افتراقی خطی مناسب نیست. به جای آن، می‌توان تحلیل افتراقی درجه دوم (QDA) را روی داده‌ها پیاده‌سازی کرد. خطای جایگزینی مجدد در تحلیل تفکیک درجه دوم به کمک متلب به صورت زیر محاسبه می‌شود.

qda = fitcdiscr(meas(:,1:2),species,'DiscrimType','quadratic');
qdaResubErr = resubLoss(qda)

در اینجا qdaResubErr برابر با ۰٫۲ می‌شود. خطای تست که به آن «خطای تعمیم» (Generalization Error) نیز گفته می‌شود، برابر با خطای پیش‌بینی انتظاری در یک مجموعه مستقل است. خطای جایگزینی مجدد احتمالاً «خطای تست» (Test Error) را کمتر از حد لازم برآورد می‌کند. در این مورد، مجموعه داده برچسب‌گذاری‌شده دیگری در دسترس نیست، اما می‌توان با انجام اعتبارسنجی متقابل آن را شبیه‌سازی کرد.

اعتبارسنجی متقابلِ ۱۰ بخشی روشی رایج برای تخمین خطای آزمون در الگوریتم‌های طبقه‌بندی است. در این روش، مجموعه آموزشی به طور تصادفی به ۱۰ زیر مجموعه مجزا تقسیم می‌شود. اندازه هر زیرمجموعه تقریباً برابر است و نسبت‌های کلاسی تقریباً مشابهی در مجموعه آموزشی دارد. در این روش، یک زیر مجموعه حذف و مدل طبقه‌بندی، با استفاده از ۹ زیر مجموعه دیگر آموزش داده می‌شود.

از مدل آموزش دیده برای طبقه‌بندی زیرمجموعه حذف شده استفاده می‌شود. در هر تکرار، می‌توان این کار را با حذف هر یک از ده زیر مجموعه تکرار کرد. از آنجا که اعتبارسنجی متقابل، داده‌ها را به طور تصادفی تقسیم می‌کند، نتیجه آن به «دانه» (Seed) تصادفی اولیه بستگی دارد. برای بازتولید نتایج دقیق در این مثال، دستور زیر را اجرا می‌کنیم.

rng(0,'twister');

برای تولید ۱۰ زیر مجموعه از cvpartition استفاده می‌کنیم.

cp = cvpartition(species,'KFold',10)

خروجی کد فوق را به صورت زیر خواهد بود.

خروجی کد برای اعتبارسنجی متقابل

روش‌های crossval و kfoldLoss می‌توانند خطای طبقه‌بندی را برای LDA و QDA با استفاده از پارتیشن داده (cp) اشتباه تخمین بزنند. «خطای تست درست» (True Test Error) LDA را با استفاده از اعتبارسنجی متقابل ۱۰ بخشی تخمین می‌زنیم.

cvlda = crossval(lda,'CVPartition',cp);
ldaCVErr = kfoldLoss(cvlda)

در اینجا خروجی برابر ۰٫۲ خواهد بود. خطای اعتبارسنجی متقابل LDA برابر با مقدار خطای جایگزینی مجدد LDA است. خطای تست درست برای QDA را با استفاده از اعتبارسنجی متقابل ۱۰ بخشی تخمین می‌زنیم.

cvqda = crossval(qda,'CVPartition',cp);
qdaCVErr = kfoldLoss(cvqda

در کدهای فوق مقدار qdaCVErrبرابر با ۰.۲۲ خواهد بود. QDA دارای یک خطای اعتبار متقابل کمی بزرگتر از LDA است. این نشان می‌دهد که یک مدل ساده‌تر عملکرد قابل مقایسه یا بهتری نسبت به یک مدل پیچیده‌تر دارد.

آموزش هوش مصنوعی در متلب برای دسته بند بیز ساده

آموزش هوش مصنوعی در متلب را با بررسی «طبقه‌بند» (کلاسیفایر) بِیز ساده (بِیز ساده‌لوح) ادامه می‌دهیم. تابع fitcdiscr شامل دو نوع دیگر ‘DiagLinear’ و ‘DiagQuadratic’ می‌شود. این‌ها شبیه به توابع خطی و درجه دوم هستند، اما با این تفاوت که تخمین‌های ماتریس کوواریانس قطری دارند. این انتخاب‌های قطری نمونه‌های خاصی از یک «دسته‌بند بیز ساده» (Naive Bayese Classifire) هستند. در طبقه‌بندی بیز فرض می‌شود که متغیرها با توجه به برچسب کلاس مستقل هستند. طبقه‌بندی کننده‌های بیز ساده از رایج‌ترین طبقه‌بندی کننده‌ها هستند. علی رغم این که فرض استقلال شرطی کلاس بین متغیرها به طور کلی درست نیست، طبقه‌بندی‌کننده‌های بیز ساده در عمل در بسیاری از مجموعه‌ داده‌ها به‌خوبی کار می‌کنند.

می‌توان از تابع fitcnb برای ایجاد یک نوع کلی‌ از دسته‌بند بیز ساده استفاده کرد. ابتدا هر متغیر در هر کلاس را با استفاده از توزیع گاوسی مدل و خطای جایگزینی مجدد و خطای اعتبارسنجی متقابل محاسبه می‌کنیم.

nbGau = fitcnb(meas(:,1:2), species);
nbGauResubErr = resubLoss(nbGau)

در کدهای فوق، مقدار nbGauResubErr برابر با ۰.۲۲ خواهد بود.

nbGauCV = crossval(nbGau, 'CVPartition',cp);
nbGauCVErr = kfoldLoss(nbGauCV)

مقدار nbGauCVErr نیز در کدهای فوق برابر با ۰.۲۲ می‌شود.

labels = predict(nbGau, [x y]);
gscatter(x,y,labels,'grb','sod')

با توجه به کد فوق، ناحیه‌بندی خوشه‌ها به شکل زیر خواهد بود.

آموزش هوش مصنوعی در متلب و دسته بند نایو بیز

تا اینجا فرض کرده بودیم که متغیرهای هر کلاس دارای توزیع نرمال چند متغیره هستند. اغلب این یک فرض معقول است، اما گاهی اوقات ممکن است این فرض معتبر نباشد. اکنون هر متغیر را در هر کلاس با استفاده از یک تخمین چگالی هسته مدل می‌کنیم. این رویکرد یک روش ناپارامتریک است و انعطاف‌پذیرتری بیشتری دارد.

nbKD = fitcnb(meas(:,1:2), species, 'DistributionNames','kernel', 'Kernel','box');
nbKDResubErr = resubLoss(nbKD)

مقدار nbKDResubErr برابر با ۰.۲۰۶۷ می‌شود.

nbKDCV = crossval(nbKD, 'CVPartition',cp);
nbKDCVErr = kfoldLoss(nbKDCV)

در اینجا مقدار ۰.۲۱۳۳ در متغیر nbKDCVErr ذخیره می‌شود.

labels = predict(nbKD, [x y]);
gscatter(x,y,labels,'rgb','osd')

با توجه به کد فوق، ناحیه‌بندی خوشه‌ها به شکل زیر خواهد بود.

یادگیری هوش مصنوعی در متلب و تخمین چگالی کرنل

برای این مجموعه داده، طبقه‌بندی کننده بیز ساده با تخمین چگالی هسته در مقایسه با طبقه‌بندی کننده بیز ساده با توزیع گاوسی، خطای جایگزینی مجدد و خطای اعتبار متقابل کمتری دریافت می‌کند.

آموزش هوش مصنوعی در متلب برای درخت تصمیم

در این بخش از آموزش هوش مصنوعی در متلب، به دسته‌بند «درخت تصمیم» (Decision Tree) می‌پردازیم و نحوه پیاده‌سازی آن را شرح می‌دهیم. درخت تصمیم شامل مجموعه‌ای از قوانین ساده است؛ برای نمونه، یک قانون در مثال اخیر را می‌توان به این شکل بیان کرد که «اگر طول کاسبرگ کمتر از ۵٫۴۵ باشد، نمونه در کلاس setosa قرار خواهد داشت». درختان تصمیم نیز جز الگوریتم‌های ناپارامتریک محسوب می‌شوند، زیرا کلاس‌ها به هیچ فرضی در مورد توزیع متغیرها نیاز ندارند. در نرم‌افزار متلب، تابع fitctree  یک درخت تصمیم ایجاد می‌کند. مثال جاری را با استفاده از درخت تصمیم توسعه می‌هیم.

t = fitctree(meas(:,1:2), species,'PredictorNames',{'SL' 'SW' });

جالب است که ببینیم روش درخت تصمیم چگونه صفحه را تقسیم می‌کند. از همان روش بالا برای مصورسازی مناطق تخصیص داده شده به هر دسته از انواع گل زنبق استفاده می‌کنیم.

[grpname,node] = predict(t,[x y]);
gscatter(x,y,grpname,'grb','sod')

تصویر نمودار حاصل شده در ادامه آمده است.

آموزش هوش مصنوعی در متلب و مصورسازی خوشه‌ها به کمک درخت تصمیم

راه دیگر برای مصورسازی درخت تصمیم، ترسیم نمودار قانون تصمیم و تخصیص کلاس است.

ٰview(t,'Mode','graph');

خروجی خط کد بالا به صورت زیر است.

آموزش هوش مصنوعی در متلب و درخت تصمیم

این درخت با ظاهر درهم از قوانینی به شکل «SL < ۵.۴۵» برای طبقه‌بندی هر نمونه به یکی از ۱۹ گره پایانه استفاده می‌کند. برای تعیین و تخصیص کلاس در هر مشاهده، از گره بالایی شروع می‌کنیم و قانون را اعمال می‌کنیم. اگر نقطه مطابق با قانون تعریف شده باشد، مسیر چپ را انتخاب می‌کنیم و در غیر این صورت مسیر راست را انتخاب می‌کنیم. در نهایت به یک گره پایانی می‌رسیم که مشاهده را به یکی از سه دسته اختصاص می‌دهد. در ادامه خطای جایگزینی مجدد و خطای اعتبارسنجی متقابل را برای درخت تصمیم محاسبه می‌کنیم.

dtResubErr = resubLoss(t)

مقدار dtResubErr برابر با ۰.۱۳۳۳ بدست می‌آید.

cvt = crossval(t,'CVPartition',cp);
dtCVErr = kfoldLoss(cvt)

مقدار ذخیره شده در dtCVErr برابر با ۰.۳ خواهد بود. مشخص شد که در الگوریتم درخت تصمیم، خطای اعتبارسنجی متقابل به طور قابل توجهی بزرگتر از خطای جایگزینی است. این نشان می‌دهد که درخت تولید شده در داده‌های آموزشی دچار بیش برازش شده است. به عبارت دیگر، این درختی است که مجموعه آموزشی اصلی را به‌خوبی طبقه‌بندی می‌کند، اما ساختار درخت به این مجموعه آموزشی خاص حساس است، به طوری که عملکرد آن در داده‌های جدید احتمالاً کاهش می‌یابد. اغلب می‌توان درخت ساده‌تری پیدا کرد که عملکرد بهتری نسبت به درخت پیچیده‌تر داشته باشد.

برای رفع این مشکل، درخت را هرس می‌کنیم. ابتدا خطای جایگزینی را برای زیرمجموعه‌های مختلف درخت اصلی و سپس خطای اعتبارسنجی متقابل را برای این درختان فرعی محاسبه می‌کنیم. نمودار نشان می‌دهد که خطای جایگزینی مجدد بیش از حد خوش‌بینانه است. خطای جایگزینی مجدد همیشه با رشد اندازه درخت کاهش می‌یابد، اما بعد از یک نقطه خاص، افزایش اندازه درخت، باعث افزایش نرخ خطای اعتبارسنجی متقابل می‌شود.

resubcost = resubLoss(t,'Subtrees','all');
[cost,secost,ntermnodes,bestlevel] = cvloss(t,'Subtrees','all');
plot(ntermnodes,cost,'b-', ntermnodes,resubcost,'r--')
figure(gcf);
xlabel('Number of terminal nodes');
ylabel('Cost (misclassification error)')
legend('Cross-validation','Resubstitution')

خروجی به صورت زیر است.

آموزش هوش مصنوعی در متلب و نمودار هزینه بر حسب تعداد گره ها در درخت تصمیم

اما کدام درخت را باید انتخاب کرد؟ یک قانون ساده این است که درختی را انتخاب کنیم که کوچکترین خطای اعتبارسنجی متقابل را دارد. راه دیگر این است که از یک درخت ساده‌تر استفاده کنیم، به شرطی که تقریباً به‌خوبی درخت پیچیده‌تر باشد. در این مثال، ساده‌ترین درخت را در نظر می‌گیریم که دارای خطای استاندارد حداقلی باشد. این قانون به صورت پیش‌فرض در متد cvloss  در ClassificationTree  برقرار است.

حداقل هزینه به اضافه یک خطای استاندارد را به عنوان یک آستانه در نظر می‌گیریم و آن را در نمودار نشان می‌دهیم. «بهترین» مقدار محاسبه شده با روش cvloss برابر با کوچک‌ترین درخت، در زیر این آستانه قرار دارد. (توجه داشته باشید که bestlevel=۰ مربوط به درخت هرس نشده است، بنابراین در خروجی‌های برداری از cvloss ، برای استفاده از bestlevel، آن را باید به اضافه ۱ کنیم).

[mincost,minloc] = min(cost);
cutoff = mincost + secost(minloc);
hold on
plot([0 20], [cutoff cutoff], 'k:')
plot(ntermnodes(bestlevel+1), cost(bestlevel+1), 'mo')
legend('Cross-validation','Resubstitution','Min + 1 std. err.','Best choice')
hold off

با توجه به کد فوق، نمودار هزینه به ازا گره‌های پایانی به شکل زیر خواهد بود.

آموزش هوش مصنوعی در متلب و محاسبه آستانه خطا

در نهایت، نمودار درخت هرس شده را ترسیم می‌کنیم و خطای تخمین طبقه‌بندی اشتباه را برای آن محاسبه می‌کنیم.

pt = prune(t,'Level',bestlevel);
view(pt,'Mode','graph')

با توجه به کد فوق، نمودار درخت هرس شده به شکل زیر خواهد بود.

آموزش هوش مصنوعی در متلب و درخت هرس شده
cost(bestlevel+1)

خروجی به صورت زیر خواهد بود:

ans = 0.2467

در مثال بالا نحوه انجام طبقه‌بندی در MATLAB با استفاده از توابع موجود در جعبه ابزارهای Statistics و Machine Learning شرح داده شد. حال در ادامه به بحث آموزش هوش مصنوعی در متلب برای خوشه بندی پرداخته‌ایم.

آموزش هوش مصنوعی در متلب برای خوشه بندی

در این قسمت از آموزش هوش مصنوعی در متلب، ابتدا مروری داریم بر الگوریتم‌های خوشه‌بندی و امکاناتی که متلب در این خصوص فراهم کرده است و سپس با ارائه مثال به پیاده‌سازی برخی از این الگوریتم‌ها در محیط کدنویسی متلب خواهیم پرداخت.

الگوریتم های خوشه بندی و امکانات متلب برای آن

الگوریتم های خوشه بندی و امکانات متلب برای آن در ادامه فهرست شده‌اند.

  • «خوشه بندی سلسله مراتبی» (Hierarchical Clustering)
  • k-Means و k-Medoids
  • خوشه بندی فضایی مبتنی بر چگالی با نویز (DBSCAN)
  • «خوشه‌بندی طیفی» (Spectral Clustering)
  • «مدل‌های مخلوط گاوسی» (Gaussian Mixture Models)
  • «نزدیکترین همسایه‌ها» (Nearest Neighbors)
  • «مدل‌های پنهان مارکوف» (Hidden Markov Models)
  • «تشخیص ناهنجاری» (Anomaly Detection)
  • «مصور‌سازی و ارزیابی خوشه‌ها» (Cluster Visualization and Evaluation)

حال در ادامه مجموعه داده‌‌‌های زنبق یا همان آیریس را در نظر می‌گیریم و عمل خوشه‌بندی را به کمک برخی از الگوریتم‌های نام برده شده، در محیط متلب بر روی این دیتاست پیاده‌سازی می‌کنیم. الگوریتم‌های به‌کار رفته در این مثال شامل «خوشه‌بندی k-means» و «خوشه‌بندی سلسله‌مراتبی» (Hierarchical Clustering) می‌شوند.

خوشه بندی K-means چیست ؟

یک روش پارتیشن‌بندی یا همان گروه‌بندی است که مشاهدات در داده‌ها را به عنوان اشیایی در نظر می‌گیرد که دارای مکان و فاصله از یکدیگر هستند. در این روش، اشیاء به K خوشه تقسیم می‌شوند، به طوری که خوشه‌ها ۲ به ۲ از هم مجزا باشند. اشیاء درون هر خوشه تا حد امکان به یکدیگر نزدیک و اشیا در خوشه‌های مختلف تا حد امکان از یکدیگر دور هستند. هر خوشه با مرکز یا نقطه مرکزی خود مشخص می‌شود. توجه داشته باشید که فواصل مورد استفاده در خوشه‌بندی، نشان‌دهنده فواصل مکانی نیستند.

خوشه بندی سلسله مراتبی چیست ؟

روشی برای گروه‌بندی داده‌ها با مقیاس‌های مختلف فاصله‌ای است که با ایجاد یک درخت خوشه‌ای توسعه می‌یابد. در اینجا، درخت مجموعه‌ای واحد از خوشه‌ها نیست، بلکه سلسله مراتب چند سطحی است که در آن خوشه‌ها در یک سطح، در سطح بالاتر به عنوان خوشه بعدی به هم می‌پیوندند. این ویژگی به شما امکان می‌دهد تصمیم بگیرید که چه مقیاس یا سطحی از خوشه‌بندی در برنامه شما مناسب‌تر است. برخی از توابع استفاده شده در این مثال، توابع تولید اعداد تصادفی موجود در MATLAB هستند.

rng(6,'twister')

مجموعه داده گل زنبق برای آموزش هوش مصنوعی در متلب

همانطور که در مثال طبقه‌بندی توضیح دادیم، داده‌های گل «زنبق» (Iris) یک مجموعه داده شناخته شده است که در آموزش هوش مصنوعی در متلب، پایتون و دیگر ابزارهای تحلیل هوش مصنوعی مورد استفاده قرار می‌گیرد. این داده‌ها شامل چهار ویژگی طول کاسبرگ، عرض کاسبرگ، طول گلبرگ و عرض گلبرگ برای ۱۵۰ نمونه گل زنبق است. از قبل می‌دانیم که این مجموعه سه دسته از انواع زنبق را شامل می‌شود و هر دسته شامل ۵۰ نمونه است.

آموزش هوش مصنوعی در متلب برای خوشه بندی K-Means

تابع kmeans  خوشه‌بندی K-Means را با استفاده از یک الگوریتم تکرار شونده انجام می‌دهد، به طوری که در هر خوشه، مجموع فواصل هر شی تا مرکز آن خوشه‌، حداقل باشد. با استفاده از داده‌های گل زنبق، گروه‌بندی‌های طبیعی را در بین نمونه‌ها بر اساس اندازه‌ کاسبرگ و گلبرگ‌ پیدا می‌کنیم.

ابتدا داده‌ها را بارگذاری می‌کنیم، در الگوریتم K-Means قبل از هر چیزی باید تعداد خوشه‌ها را مشخص کرد. ما در اینجا k را برابر با ۲ در نظر می‌گیریم و تنظیمات مربوط به فاصله را از نوع اقلیدسی قرار می‌دهیم. برای این که متوجه شویم خوشه‌ها چقدر خوب از هم جدا شده‌اند، می‌توانیم نمودار «سیلوئت» (Silhouette) را ترسیم کنیم که نشان‌دهنده میزان نزدیکی هر یک از نقاط در یک خوشه به نقاط در خوشه‌های همسایه است.

load fisheriris
[cidx2,cmeans2] = kmeans(meas,2,'dist','sqeuclidean');
[silh2,h] = silhouette(meas,cidx2,'sqeuclidean');

با توجه به کدفوق، نمودار سیلوئت به شکل زیر خواهد بود.

آموزش هوش مصنوعی در متلب و نمودار سیلوئت

در نمودار Silhouette، می‌توانید ببینید که بیشتر نقاط در هر دو خوشه دارای مقدار سیلوئت بزرگتر از ۰٫۸ هستند (که رقم نسبتاً بزرگی به حساب می‌آید). این نشان می‌دهد نقاط به‌خوبی از خوشه‌های همسایه جدا شده‌اند. با این حال، هر خوشه همچنین حاوی چند نقطه با مقادیر سیلوئت کم است، که نشان می‌دهد این نقاط در نزدیکی نقاط خوشه‌های دیگر هستند.

به نظر می‌رسد که چهارمین ویژگی در این داده‌ها که عرض گلبرگ است، با ویژگی سوم، یعنی طول گلبرگ، «همبستگی» (Corelation) زیادی دارد و بنابراین نمودار سه بُعدی با استفاده از ۳ ویژگی اول و با صرف نظر کردن از ویژگی چهارم، داده‌ها را به‌خوبی نمایش خواهد داد. با ترسیم داده‌ها با شکل‌های سمبولیک می‌توان داده‌‌ها با مقدار سیلوئت کوچک و نزدیک به دیگر خوشه‌ها را شناسایی کرد.

ptsymb = {'bs','r^','md','go','c+'};
for i = 1:2
clust = find(cidx2==i);
plot3(meas(clust,1),meas(clust,2),meas(clust,3),ptsymb{i});
hold on
end
plot3(cmeans2(:,1),cmeans2(:,2),cmeans2(:,3),'ko');
plot3(cmeans2(:,1),cmeans2(:,2),cmeans2(:,3),'kx');
hold off
xlabel('Sepal Length');
ylabel('Sepal Width');
zlabel('Petal Length');
view(-137,10);
grid on

با توجه به کد فوق، نمودار پراکندگی به شکل زیر خواهد بود.

آموزش هوش مصنوعی در متلب و خوشه بندی k-means

مرکز هر خوشه با استفاده از علامت دایره‌ حاوی دو قطر ضربدری نشان داده شده است. سه نقطه از خوشه پایینی (نقاط مثلثی) به نقاط خوشه بالایی (نقاط مربعی) بسیار نزدیک هستند. در خوشه پایینی این سه نقطه با یک شکاف از بخش عمده‌ای از نقاط خوشه خود جدا شده‌اند اما با این وجود، به علت گستردگی خوشه بالایی، آن سه نقطه نسبت به مرکز خوشه پایینی نزدیکتر هستند. این نتیجه از آنجایی نشأت می‌گیرد که خوشه‌بندی K-Means فقط فواصل و نه چگالی را در نظر می‌گیرد.

می‌توانیم تعداد خوشه‌ها را افزایش دهیم تا ببینیم آیا k-means می‌تواند ساختار گروه‌بندی بیشتری را در داده‌ها پیدا کند یا خیر؛ این بار برای چاپ اطلاعات مربوط به هر تکرار در الگوریتم خوشه‌بندی از آرگومان‌های «Display» و «iter» استفاده می‌کنیم.

[cidx3,cmeans3] = kmeans(meas,3,'Display','iter');

با اجرای کد بالا، در خروجی آمار مربوط به تکرارها در الگوریتم k-means را ملاحظه می‌کنیم که به صورت زیر خواهد بود.

خروجی کد در خوشه بندی k-means

در هر تکرار، الگوریتم k-means نقاط را بین خوشه‌ها مجدداً اختصاص می‌دهد تا مجموع فواصل نقاط تا مرکز را کاهش دهد و سپس مرکزهای خوشه‌ای جدید را دوباره محاسبه می‌کند. توجه داشته باشید که مجموع کل فاصله‌ها و تعداد تخصیص مجدد در هر تکرار کاهش می‌یابد، تا زمانی که این مقادیر در الگوریتم به یک سطح حداقلی برسند. الگوریتم مورد استفاده در k-means از دو فاز تشکیل شده است. در مثال اینجا در فاز دوم الگوریتم، هیچ گونه تخصیص مجددی انجام نشده است که نشان می‌دهد در فاز اول تنها پس از چند بار، مقادیر به حداقل رسیده‌اند.

به طور پیش‌فرض، k-means فرآیند خوشه‌بندی را با استفاده از مجموعه‌ای از مکان‌های مرکزی اولیه آغاز می‌کند که به طور تصادفی انتخاب شده‌اند. الگوریتم kmeans می‌تواند به یک راه حل همگرا شود که به صورت محلی کمینه است. یعنی این احتمال وجود دارد kmeans داده‌ها را به گونه‌ای تقسیم‌بندی کند که انتقال هر نقطه به یک خوشه دیگر مجموع فاصله‌ها را افزایش دهد. راه حلی که kmeans ارائه می‌دهد، مانند بسیاری از انواع دیگر کمینه‌سازی‌های عددی، گاهی به نقاط شروع بستگی دارد.

بنابراین ممکن است راه‌حل‌ها یا مینیمم‌های محلی دیگری که مجموع فاصله‌های کمتری دارند نیز وجود داشته باشند. می‌توانیم از آرگومان اختیاری «Replicates» برای تست راه‌حل‌های مختلف استفاده کنیم. هنگامی که بیش از یک تکرار را مشخص می‌کنیم، kmeans فرآیند خوشه‌بندی را با شروع از مراکز مختلف منتخب تصادفی در هر Replicate تکرار می‌کند. سپس kmeans با توجه به همه تکرارها و از بین مقادیر مربوط به مجموع کل فاصله‌ها، راه‌حل با کم‌ترین مقدار را برمی‌گرداند.

[cidx3,cmeans3,sumd3] = kmeans(meas,3,'replicates',5,'display','final');

با اجرای کدفوق، مجموع فواصل در هر تکرار، به صورت زیر، قابل مشاهده خواهد بود.

خروجی کد و انتخاب بهترین راه حل در k-means

خروجی نشان می‌دهد که حتی در این مسئله نسبتاً ساده، برخی «مینیمم‌های محلی» (Non-Global Minima) وجود دارند. هر یک از این پنج تکرار از مجموعه متفاوتی از مراکز اولیه آغاز شده‌اند. راه‌حل نهایی که kmeans برمی‌گرداند، راه‌حلی است که کمترین مجموع فاصله‌ها را در تمام تکرارها دارد. آرگومان خروجی سوم نشان‌دهنده مجموع فواصل درون هر خوشه برای بهترین راه‌حل است.

sum(sumd3)

جواب برابر با ۷۸٫۸۵۱۴ می‌شود. نمودار سیلوئت برای این راه‌حل سه خوشه‌ای نشان می‌دهد که یکی از خوشه‌ها به‌خوبی از دو خوشه دیگر جدا شده است، اما دو خوشه دیگر خیلی متمایز نیستند.

[silh3,h] = silhouette(meas,cidx3,'sqeuclidean');

خروجی کد فوق، برای نمایش سیلوئت به شکل زیر خواهد بود.

آموزش هوش مصنوعی در متلب و نمودار سیلئت در خوشه بندی k-means

دوباره داده‌های خام را رسم می‌کنیم تا ببینیم k-means چگونه نقاط را به خوشه‌ها تخصیص داده است.

for i = 1:3
clust = find(cidx3==i);
plot3(meas(clust,1),meas(clust,2),meas(clust,3),ptsymb{i});
hold on
end
plot3(cmeans3(:,1),cmeans3(:,2),cmeans3(:,3),'ko');
plot3(cmeans3(:,1),cmeans3(:,2),cmeans3(:,3),'kx');
hold off
xlabel('Sepal Length');
ylabel('Sepal Width');
zlabel('Petal Length');
view(-137,10);
grid on[silh3,

با اجرا کردن قطعه کد بالا، نمودار پراکندگی خوشه‌بندی را به شکل زیر ملاحظه می‌کنیم.

آموزش هوش مصنوعی در متلب و نمودار پراکنش داده های خام

می‌بینیم که kmeans خوشه بالایی را از راه حل دو خوشه‌ای جدا کرده است اما این دو خوشه بسیار به هم نزدیک هستند. بسته به این که پس از خوشه‌بندی قصد داریم چه کاری انجام دهیم، این راه حل سه خوشه‌ای می‌تواند کم و بیش از راه‌حل دو خوشه‌ای مفیدتر باشد. اولین آرگومان خروجی در silhouette  حاوی مقادیر silhouette برای هر نقطه است که می‌توانیم از آن‌ها برای مقایسه کمی دو راه‌حل استفاده کنیم. میانگین مقدار سیلوئت برای راه‌حل دو خوشه‌ای بزرگتر است، که نشان می‌دهد که این پاسخ صرفاً از نقطه نظر ایجاد خوشه‌های متمایز پاسخ بهتری است.

[mean(silh2) mean(silh3)]

اجرای کد فوق، میانگین مقادیر سلوئت را به صورت زیر برمی‌گرداند.

آموزش هوش مصنوعی در متلب و انتخاب تعداد خوشه های بهینه به کمک شاخص سیلوئت

همچنین می‌توانیم داده‌ها را با استفاده از معیار و فاصله متفاوتی خوشه‌بندی کنیم. فاصله کسینوسی یکی از معیارهایی است که ممکن است برای این داده‌ها منطقی باشد زیرا اندازه‌های مطلق مقادیر در این روش نادیده گرفته می‌شود و فقط اندازه‌های نسبی آن‌ها منظور می‌شود. بنابراین، دو گل با اندازه‌های متفاوت، اما گلبرگ‌ها و کاسبرگ‌های مشابه، ممکن است از نظر فاصله اقلیدسی نزدیک هم محسوب نشوند، اما از نظر فاصله کسینوسی نزدیک یکدیگر باشند.

[cidxCos,cmeansCos] = kmeans(meas,3,'dist','cos');

از نمودار سیلوئت، به نظر می‌رسد که این خوشه‌ها فقط کمی بهتر از خوشه‌هایی هستند که با استفاده از فاصله اقلیدسی به دست می‌آیند.

[silhCos,h] = silhouette(meas,cidxCos,'cos');
[mean(silh2) mean(silh3) mean(silhCos)]

اجرای کد فوق، میانگین مقادیر سلوئت را به صورت زیر برمی‌گرداند.

آموزش هوش مصنوعی در متلب و معیار فاصله کسینوسی در خوشه بندی k-means
آموزش هوش مصنوعی در متلب و نمودار سلوئت برای k-means با فاصله کسینوسی

توجه داشته باشید که ترتیب خوشه‌ها در مقایسه با نمودار سیلوئت قبلی متفاوت است. این تفاوت به این دلیل است که kmeans انتساب‌های اولیه خوشه را به صورت تصادفی انتخاب می‌کند. با ترسیم داده‌های خام، می‌توانیم تفاوت در اشکال خوشه‌ای ایجاد شده با استفاده از دو فاصله متفاوت را مشاهده کنیم. این دو راه حل شبیه به هم هستند، اما در هنگام استفاده از فاصله کسینوسی، دو خوشه بالایی در جهت مبدا کشیده می‌شوند.

for i = 1:3
clust = find(cidxCos==i);
plot3(meas(clust,1),meas(clust,2),meas(clust,3),ptsymb{i});
hold on
end
hold off
xlabel('Sepal Length');
ylabel('Sepal Width');
zlabel('Petal Length');
view(-137,10);
grid on

نمودار پراکندگی خوشه‌‌بندی در خروجی کد به این شکل خواهد بود.

آموزش هوش مصنوعی در متلب و نمودار پراکنش با معیار فاصله کسینوسی

این نمودار مراکز خوشه را نمایش نمی‌دهد، زیرا در فاصله کسینوسی، مرکز با یک نیم خط از مبدا نمایش داده می‌شود. با این حال، می‌توان از نقاط داده نرمال شده یک نمودار مختصات موازی برای مصورسازی تفاوت بین مراکز خوشه ترسیم کرد.

lnsymb = {'b-','r-','m-'};
names = {'SL','SW','PL','PW'};
meas0 = meas ./ repmat(sqrt(sum(meas.^2,2)),1,4);
ymin = min(min(meas0));
ymax = max(max(meas0));
for i = 1:3
subplot(1,3,i);
plot(meas0(cidxCos==i,:)',lnsymb{i});
hold on;
plot(cmeansCos(i,:)','k-','LineWidth',2);
hold off;
title(sprintf('Cluster %d',i));
xlim([.9, 4.1]);
ylim([ymin, ymax]);
h_gca = gca;
h_gca.XTick = 1:4;
h_gca.XTickLabel = names;
endfor i = 1:3

با اجرای کد فوق، نمودار مختصات موازی برای نمایش تفاوت بین مراکز خوشه ها به این صورت ترسیم خواهد شد.

آموزش هوش مصنوعی در متلب و نمودار خوشه بندی توسط k-means

از نمودارهای بالا مشخص است که نمونه‌های هر یک از سه خوشه به طور متوسط اندازه‌های نسبی متفاوتی از گلبرگ‌ها و کاسبرگ‌ها دارند. اولین خوشه دارای گلبرگ‌هایی است که کاملاً کوچکتر از کاسبرگ‌ها هستند. گلبرگ‌ها و کاسبرگ‌های دو خوشه دوم از نظر اندازه با هم هم‌پوشانی دارند. این هم‌پوشانی در خوشه سوم بیشتر از دسته دوم است. علاوه بر این خوشه‌های دوم و سوم شامل نمونه‌هایی هستند که بسیار شبیه به یکدیگرند.

از آنجایی که ما از انواع گونه‌های هر مشاهده در داده‌ها اطلاع داریم، می‌توانیم خوشه‌های به دست آمده توسط k-means را با گونه‌های واقعی مقایسه کنیم تا ببینیم آیا این سه گونه ویژگی‌های فیزیکی متفاوتی دارند یا خیر. در واقع، همانطور که نمودار زیر نشان می‌دهد، خوشه‌های ایجاد شده با استفاده از فاصله کسینوسی با گروه‌های گونه گل زنبق تنها برای پنج گل متفاوت است. آن پنج نقطه که به شکل ستاره‌ای و با رنگ سیاه ترسیم شده‌اند، همگی نزدیک مرز دو خوشه بالایی قرار دارند.

subplot(1,1,1);
for i = 1:3
clust = find(cidxCos==i);
plot3(meas(clust,1),meas(clust,2),meas(clust,3),ptsymb{i});
hold on
end
xlabel('Sepal Length');
ylabel('Sepal Width');
zlabel('Petal Length');
view(-137,10);
grid on
sidx = grp2idx(species);
miss = find(cidxCos ~= sidx);
plot3(meas(miss,1),meas(miss,2),meas(miss,3),'k*');
legend({'setosa','versicolor','virginica'});
hold off

نمودار پراکندگی خوشه‌بندی با اجرای کد فوق به شکل زیر ترسیم خواهد شد.

آموزش هوش مصنوعی در متلب و خوشه بندی با معیار فاصله کسینوسی

آموزش هوش مصنوعی در متلب برای خوشه بندی سلسله مراتبی

در ادامه آموزش هوش مصنوعی در متلب، در این بخش به خوشه‌بندی سلسله مراتبی می‌پردازیم. داده‌های مورد استفاده در این مثال نیز همانند مثال‌های حل شده در بالا، شامل «مجموعه داده گل‌های زنبق» (Iris Dataset) است. خوشه‌بندی K-Means داده‌های آیریس را «افراز» (Partition) می‌کند. اما اگر بخواهیم مقیاس‌های مختلف گروه‌بندی را نیز در داده‌ها بررسی کنیم، خوشه‌بندی سلسله مراتبی به ما این امکان را می‌دهد که این کار را با ایجاد یک درخت سلسله مراتبی از خوشه‌ها انجام دهیم.

ابتدا یک درخت خوشه‌بندی با استفاده از فواصل بین مشاهدات و با استفاده از معیار فاصله اقلیدسی در داده‌ها ایجاد می‌کنیم.

eucD = pdist(meas,'euclidean');
clustTreeEuc = linkage(eucD,'average');

همبستگی «کوفنه‌تیک» (Cophenetic) یکی از راه‌های بررسی سازگاری درخت خوشه‌بندی با فواصل اصلی است. مقادیر بزرگ نشان می‌دهد که درخت به‌خوبی با فواصل مطابقت دارد، به این معنا که پیوندهای زوجی بین مشاهدات با فواصل زوجی واقعی آنها همبستگی دارند. به نظر می‌رسد این درخت با فاصله‌ها برازش خوبی دارد.

cophenet(clustTreeEuc,eucD)

جواب برابر با ۰٫۸۷۷۰ است. برای مصورسازی خوشه‌بندی سلسه‌مراتبی می‌توانیم از دندوگرام‌ استفاده کنیم.

[h,nodes] = dendrogram(clustTreeEuc,0);
h_gca = gca;
h_gca.TickDir = 'out';
h_gca.TickLength = [.002 0];
h_gca.XTickLabel = [];

خروجی کد فوق، دندوگرام را به شکل زیر ترسم خواهد کرد.

آموزش هوش مصنوعی در متلب و ترسیم دندوگرام در خوشه بندی سلسله مراتبی

گره ریشه در این درخت بسیار بالاتر از دیگر گره‌ها است. این موضوع نشان‌دهنده دو گروه بزرگ و متمایز از مشاهدات و همسو و تایید کننده نتایج به دست آمده از خوشه‌بندی k-means است. در هر یک از این دو گروه، با کوچک‌تر شدن مقیاس فاصله، می‌توانیم ببینیم که سطوح پایین‌تری از گروه‌ها ظاهر می‌شوند. این سطوح مختلف، نشان‌دهنده گروه‌ها با اندازه‌ها و با درجه تمایز مختلف هستند.

بر اساس نتایج حاصل از خوشه‌بندی K-Means، معیار کسینوسی راه‌حل خوبی برای اندازه‌گیری فاصله‌ها است. معیار کسینوسی در درخت سلسله مراتبی به دست آمده کاملاً متفاوت است و راه بسیار متفاوتی را برای نگاه کردن به ساختار گروه‌بندی داده‌ها پیشنهاد می‌کند.

cosD = pdist(meas,'cosine');
clustTreeCos = linkage(cosD,'average');
cophenet(clustTreeCos,cosD)

جواب برابر با ۰٫۹۳۶۰ است.

[h,nodes] = dendrogram(clustTreeCos,0);
h_gca = gca;
h_gca.TickDir = 'out';
h_gca.TickLength = [.002 0];
h_gca.XTickLabel = [];

ترسیم دندوگرام با لحاظ معیار کسینوسی به شکل زیر است که ملاحظه می‌کنید.

آموزش هوش مصنوعی در متلب و نمودار دندوگرام برای خوشه بندی سلسه مراتبی با معیار کسینوسی

در بالاترین سطح این درخت، نمونه‌های گل زنبق به دو گروه کاملاً متمایز تقسیم می‌شوند. مقایسه دو نمودار دندروگرام با فاصله‌های اقلیدسی و کسینوسی، نشان می‌دهد تفاوت‌های درون گروهی نسبت به تفاوت‌های بین گروهی در حالت دوم بسیار کمتر است. این اتفاق دور از انتظار نیست، زیرا فاصله کسینوسی یک فاصله زوجی صفر را برای اجسامی که در «جهت» یکسان از مبدا قرار دارند محاسبه می‌کند. نمودار دندوگرام برای ۱۵۰ مشاهده، به هم ریخته است، اما می‌توانیم دندروگرام ساده‌تری ترسیم کنیم که پایین‌ترین سطوح درخت را شامل نمی‌شود.

[h,nodes] = dendrogram(clustTreeCos,12);

ترسیم زیر حالت ساده‌سازی شده‌ی دندوگرام اخیر است که با اجرای کد فوق در خروجی دریافت خواهیم کرد.

آموزش هوش مصنوعی در متلب و ترسم دندوگرام ساده شده با معیار کسینوسی

سه گره بالاتر در این درخت، سه گروه با اندازه مساوی را به اضافه یک نوع واحد از گونه‌های گل (با برچسب گره برگ ۵) که نزدیک هیچ گروه دیگری نیست، جدا می‌کنند.

[sum(ismember(nodes,[11 12 9 10])) sum(ismember(nodes,[6 7 8])) ...
sum(ismember(nodes,[1 2 4 3])) sum(nodes==5)]

خروجی کدهای فوق به صورت زیر خواهد بود:

ans =

۵۴ ۴۶ ۴۹ ۱

برای بسیاری از اهداف، دندروگرام ممکن است یک نتیجه کافی به حساب بیاید. با این حال، می‌توانیم یک مرحله پیش برویم و از تابع cluster  برای برش درخت و تقسیم مشاهدات به خوشه‌ها استفاده کنیم. برای پیاده‌سازی خوشه‌بندی سلسله مراتبی با فاصله کسینوسی، «ارتفاع پیوند» (Linkage Height) را مشخص می‌کنیم که درخت را از زیر سه گره بالاتر بریده و چهار خوشه ایجاد می‌کند، سپس داده‌های خام خوشه‌بندی را رسم می‌کند.

hidx = cluster(clustTreeCos,'criterion','distance','cutoff',.006);
for i = 1:5
clust = find(hidx==i);
plot3(meas(clust,1),meas(clust,2),meas(clust,3),ptsymb{i});
hold on
end
hold off
xlabel('Sepal Length');
ylabel('Sepal Width');
zlabel('Petal Length');
view(-137,10);
grid on

خروجی کد فوق برای ترسیم نمودار پراکندگی خوشه‌بندی به شکل زیر است.

آموزش هوش مصنوعی در متلب و نمودار پراکنش برای خوشه بندی سلسله مراتبی

این نمودار نشان می‌دهد که نتایج حاصل از خوشه‌بندی سلسله مراتبی با فاصله کسینوسی از نظر کیفی مشابه نتایج K-Means با احتساب سه خوشه است. ایجاد یک درخت خوشه‌بندی سلسله‌مراتبی برخی مزایا را به همراه دارد. در خوشه‌بندی k-means نیاز به آزمایش‌های قابل توجه با مقادیر مختلف K وجود دارد که با مصورسازی نمودار درختی دندوگرام می‌توان به طور همزمان این موضوع را تسهیل کرد.

خوشه‌بندی سلسله مراتبی همچنین به ما امکان می‌دهد تا با پیوندهای مختلف آزمایش کنیم. برای مثال، خوشه‌بندی داده‌های گل زنبق با «پیوند منفرد» (Single Linkage) که تمایل دارد اشیاء را در فواصل بزرگ‌تر از فاصله متوسط به هم پیوند دهد، تفسیر بسیار متفاوتی از ساختار داده‌ها دارد.

clustTreeSng = linkage(eucD,'single');
[h,nodes] = dendrogram(clustTreeSng,0);
h_gca = gca;
h_gca.TickDir = 'out';
h_gca.TickLength = [.002 0];
h_gca.XTickLabel = [];

ترسیم دندوگرام با پیوند منفرد در خروجی کد فوق، به شکل زیر است.

آموزش هوش مصنوعی در متلب و ترسیم دندوگرام با احتساب Single Linkage

آموزش هوش مصنوعی در متلب با استفاده از الگوریتم ژنتیک

در این بخش از آموزش هوش مصنوعی در متلب، مثالی برای شرح و پیاده‌سازی الگوریتم ژنتیک ارائه شده است. این مثال نشان می‌دهد که چگونه می‌توان می‌نیمم یک تابع هدف را با استفاده از الگوریتم ژنتیک پیدا کرد.

مسئله بهینه سازی مقید در متلب

در این مسئله، تابع هدفی که قصد داریم آن را کمینه سازیم، یک تابع ساده شامل متغیر درجه دوم x است.

;simple_objective(x) = (4 - 2.1*x(1)^2 + x(1)^4/3)*x(1)^2 + x(1)*x(2) + (-4 + 4*x(2)^2)*x(2)^2

مرزها و قیدهای غیرخطی در این مسئله شامل موارد زیر می‌شود.

آموزش هوش مصنوعی در متلب و بهینه سازی مقید

توسعه کد برای تابع برازش در متلب

یک فایل متلب با نام simple_objective.m حاوی کد زیر ایجاد می‌کنیم.

type simple_objective

با اجرای کد فوق، خروجی‌های زیر را خواهیم داشت.

آموزش هوش مصنوعی در متلب و تعریف fitness function

ga یک ورودی به نام x را می‌پذیرد، که در آن عناصر x برابر با اندازه تعداد متغیرهای مسئله است. تابع هدف، مقدار اسکالر تابع هدف را محاسبه می‌کند و آن را در آرگومان خروجی y برمی‌گرداند.

توسعه کد برای تابع قید در متلب

یک فایل متلب با نام simple_constraint.m حاوی کد زیر ایجاد می‌کنیم.

type simple_constraint

با اجرای کد قید مسئله، خروجی‌های زیر را خواهیم داشت.

 توسعه کد مربوط به قید

تابع قید مقادیر تمام قیود نابرابری و برابری را محاسبه می‌کند و به ترتیب بردارهای c و ceq را برمی‌گرداند. مقدار c نشان‌دهنده قیدهای نابرابری غیرخطی است که حل‌کننده سعی می‌کند آن را برابر با و یا کمتر از صفر سازد. مقدار ceq قیود برابری غیرخطی را نشان می‌دهد که حل‌کننده سعی می‌کند آن‌ها را برابر با صفر قرار دهد. این مثال هیچ قید تساوی غیرخطی ندارد، بنابراین [] = ceq خواهد بود.

کمینه سازی با استفاده از الگوریتم ژنتیک در متلب

تابع هدف را به صورت یک function handle مشخص می‌کنیم.

ObjectiveFunction = @simple_objective;

مرزهای مسئله را مشخص می‌کنیم.

ConstraintFunction = @simple_constraint;

تعداد متغیرهای مسئله را مشخص می‌کنیم.

nvars = 2;

حل کننده را فراخوانی می‌کنیم و در آن نقطه بهینه x و مقدار تابع در نقطه بهینه fval را درخواست می‌کنیم.

rng default % For reproducibility
[x,fval] = ga(ObjectiveFunction,nvars,[],[],[],[],lb,ub,ConstraintFunction)

با اجرای کد فوق، در خروجی مقادیر x و fval را ملاحظه می‌کنیم.

 خروجی الگوریتم ژنتیک

مصورسازی

برای مشاهده پیشرفت حل‌کننده، دو تابع نمودار را انتخاب می‌کنیم. تابع نمودار gaplotbestf  بهترین مقدار تابع هدف را در هر تکرار ترسیم می‌کند و تابع نمودار gaplotmaxconstr  حداکثر تخطی از قید را در هر تکرار ترسیم می‌کند. این دو تابع مربوط به ترسیم نمودار را در یک «آرایه سلولی» (Cell Array) تنظیم می‌کنیم. همچنین، با تنظیم گزینه Display بر روی ‘iter’، اطلاعات مربوط به پیشرفت حل‌کننده را در Command Window نمایش می‌دهیم.

[x,fval] = ga(ObjectiveFunction,nvars,[],[],[],[],lb,ub, ...
ConstraintFunction,options)

با اجرای کد فوق، خروجی های زیر را خواهیم داشت.

 خروجی الگوریتم ژنتیک

و راه‌حل بهینه و بیشینه قید بازا نسل‌های مختلف به صورت زیر قابل مشاهده است.

آموزش هوش مصنوعی در متلب و نمودارهای خروجی الگوریتم ژنتیک

و مقادیر x و fval به صورت زیر محاسبه می‌شود.

مقدار تابع برازش بهینه در خروجی

الگوریتم ژنتیک جزئیات مربوط به نوع مسئله و عملگرهای ایجاد، متقاطع، جهش و انتخاب را در هر تکرار ارائه می‌دهد.

الگوریتم ژنتیک در مسائل با قیود غیرخطی، بسیاری از مسائل فرعی را در هر تکرار حل می‌کند. همانطور که در آمار تکرار‌ها و در نمودارها نشان داده شده است، فرآیند حل این مسئله تکرارهای کمی دارد. با این حال، ستون Func-count در نمایشگر تکرار، بسیاری از ارزیابی‌های تابع را در هر تکرار شامل می‌شود.

رویکرد ga با مرزها و قیود خطی، متفاوت از رویکرد آن با قیود غیرخطی است. تمام قیود و مرزهای خطی در طول بهینه‌سازی برآورده می‌شوند. با این حال، ga ممکن است تمام محدودیت‌های غیرخطی را در هر نسل برآورده نکند. اگر ga به یک راه‌حل همگرا شود، قیدهای غیرخطی در آن جواب برآورده شده‌اند.

ga از توابع جهش و متقاطع برای تولید افراد جدید در هر نسل استفاده می‌کند. ga قیود خطی و محدود را با استفاده از توابع جهش و متقاطع طوری برآورده می‌کند که نقاط «امکان‌پذیر» (Feasible) ایجاد شود. تابع جهش پیش‌فرض ga در مسائل غیرمقید، تابع mutationgaussian  است که قیدهای خطی را برآورده نمی‌کند و بنابراین ga به‌جای آن به طور پیش‌فرض از تابع mutationadaptfeasible  استفاده می‌کند. اگر یک تابع جهش سفارشی در دست داشته باشیم، این تابع سفارشی فقط نقاطی را می‌تواند ایجاد کند که با توجه به قیود خطی و محدود «امکان‌پذیر» (Feasible) باشد. تمام توابع متقاطع در جعبه ابزار، نقاطی را ایجاد می‌کنند که قیود و مرزهای خطی را برآورده می‌کنند.

با این حال، زمانی که مسئله شامل قیود عدد صحیح است، ga در تمامی تکرارها، قیود خطی را برآورده می‌کند. این امکان‌ در یک تلورانس کوچک، برای همه اپراتورهای ایجاد، جهش‌ و متقاطع‌ها وجود دارد.

پیشنهاد نقطه شروع

برای سرعت بخشیدن به حل کننده، می‌توانیم یک جمعیت اولیه در گزینه InitialPopulationMatrix  ارائه دهیم. ga از جمعیت اولیه برای شروع بهینه سازی خود استفاده می‌کند. یک بردار سطری یا یک ماتریس را مشخص می‌کنیم که در آن هر سطر یک نقطه شروع را نشان می‌دهد.

X0 = [0.8 12.5]; % Start point (row vector)
options.InitialPopulationMatrix = X0;
[x,fval] = ga(ObjectiveFunction,nvars,[],[],[],[],lb,ub, ...
ConstraintFunction,options)

با اجرای کد فوق، برای پیشنهاد جمعیت اولیه، خروجی‌های زیر را خواهیم داشت.

خروجی ga با راه اندازی جمعیت اولیه

و راه‌حل بهینه و بیشینه قید بازا نسل‌های مختلف به صورت زیر محاسبه می‌شود.

آموزش هوش مصنوعی در متلب و مقدار fitness

خروجی به صورت زیر است.

x = 1×۲
۰٫۸۱۲۲ ۱۲٫۳۱۰۴
fval = 9.1269e+04

در این مورد، ارائه نقطه شروع به طور اساسی تغییری در پیشرفت حل کننده ایجاد نمی‌کند.

سوالات رایج و پرتکرار

در این بخش به برخی از سوالاتی پاسخ داده شده است که در آموزش هوش مصنوعی در متلب مکرراً مطرح می‌شود.

چرا متلب ابزار مناسبی برای هوش مصنوعی به حساب می‌آید؟

متلب راه‌های مختلفی برای تعامل و انتقال داده‌ها بین چارچوب‌های یادگیری عمیق دارد. MATLAB از ONNX برای ورود و خروج مدل‌ها در سایر فریم‌ورک‌ها پشتیبانی می‌کند. به عنوان مثال، یک مدل طراحی شده در PyTorch را می‌توان به MATLAB وارد کرد و مدل‌های آموزش دیده در MATLAB را می‌توان با استفاده از چارچوب ONNX خارج کرد.

MATLAB چگونه در هوش مصنوعی استفاده می شود؟

MATLAB قابلیت‌هایی مشابه ابزارهای اختصاصی هوش مصنوعی مانند Caffe و TensorFlow را ارائه می‌کند و مهم‌تر از آن، MATLAB به شما امکان می‌دهد هوش مصنوعی را در گردش کار کامل برای توسعه یک سیستم کاملاً مهندسی شده ادغام کنید. یک مدل هوش مصنوعی تنها بخشی از گردش کار کامل برای توسعه یک سیستم کاملاً مهندسی شده به حساب می‌آید.

خواستگاه متلب چیست؟

MATLAB یک پلت‌فرم برنامه‌نویسی است که به طور خاص برای مهندسان و دانشمندان طراحی شده است تا سیستم‌ها و محصولات را تجزیه و تحلیل و طراحی کنند. قلب متلب، زبان متلب است، زبانی مبتنی بر ماتریس که امکان بیان طبیعی‌ترین ریاضیات محاسباتی را فراهم می‌کند.

بیشترین کاربرد متلب در کجاست؟

برخی از مهم‌ترین کاربردهای متلب شامل موارد زیر می‌شود.

  • مکاترونیک
  • تست و اندازه گیری
  • زیست شناسی محاسباتی و مالی محاسباتی
  • رباتیک
  • تجزیه و تحلیل داده‌ها
  • تعمیرات قابل پیش‌بینی
  • کنترل موتور و قدرت
  • یادگیری عمیق

جمع‌بندی

در این مقاله سعی شد به طور جامع به آموزش هوش مصنوعی در متلب پرداخته شود. انواع روش‌های با نظارت و بدون نظارت در یادگیری ماشین از جمله طبقه‌بندی، خوشه‌بندی و بسیاری از روش‌ها و الگوریتم‌های مختلف هوش مصنوعی در متلب آموزش داده و مثال‌های متعددی هم برای آن‌ها ارائه شد. همچنین دوره‌های آموزشی مختلفی هم معرفی شدند که علاقه‌مندان می‌توانند برای یادگیری بیشتر از آن‌ها استفاده کنند. امید است این نوشته مفید واقع شود.

ارسال دیدگاه

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *