مقایسه مقاومت بتن با الیاف فولادی و بتن معمولی با استفاده از الگوریتم های یادگیری ماشین بخش 2
kazemi31217۱۴۰۲/۶/۱۵ ،۲۲:۰۶:۲۰ +۰۴:۳۰1-2-3 رگرسور نزدیکترین همسایه k
نزدیکترین همسایه kفنی است که پیشبینی گزارشهای جدید در مقایسه با گزارشهایی که در یک مجموعه داده بسیار شبیه هستند در آن یافت میشود. رگرسیون و طبقهبندی یادگیری ماشین قابل کاربرداند. فرض میشود نزدیکترین همسایه k مشاهدات نزدیک به فضای صفت داده (یعنی مخلوط بتن) در فضای مقادیر خروجی به هم نزدیک هستند. مقادیر خروجی با استفاده از تابعی از پیش تعریف شده مقدار پاسخ نزدیکترین همسایه پیشبینی میشود و نزدیکترین فضای دادهای را مد نظر قرار میدهد. در مورد نزدیکترین همسایه k استاندارد، بهطور معمول از تابع متوسط استفاده میشود. خواص نزدیکترین همسایه k استاندارد بشرح زیر هستند:
- به همه همسایهها اهمیت مشابه میدهد و از تابع متوسط برای محاسبه مقدار پاسخ مشاهدات نامعلوم استفاده میکند.
- به همه صفات با فرض این که همه صفاتی که نرمال شدهاند به یک میزان مهماند یک وزن مشابه میدهد.
- برای محاسبه فاصله از فواصل اقلیدوسی استفاده می کند. مزیت نزدیکترین همسایه k این است که به میزان بسیار ناچیز تحت تاثیر نوفه موجود در دادههای یادگیری قرار می گیرد. از این رو الگوریتم موثری برای میزان زیاد دادههای یادگیری است[6,7].
- رگرسیون درخت تصمیم
درخت تصمیم دادهها را تحلیل میکند و الگوی موجود میان آنها را بصورت ترکیب قواعد قابل پیشبینی نشان میدهد. این الگو درخت تصمیم نام دارد چون شکل آن شبیه یک درخت است. هدف درخت رگرسیون ایجاد جدا کننده بین پیشبینی کننده ها است تا متغیرهای هدف بر اساس جداکننده میان متغیرهای ورودی قابل پیشبینی شوند. بعلاوه، چون درخت رگرسیون متغیرها را بهطور ضمنی انتخاب میکند درخت رگرسیون آموزشی نشانگر متغیرهایی است که برای پیشبینی متغیرهای هدف گره قبل در درخت مهمتر هستند. فایده درخت رگرسیون این است که میتوان دادههای عددی و دادههای دستهای را در آن بکار برد. از این رو، این رویکرد نسبت به مدلهای دیگر آسانتر است و از بررسی دقیق بهمنظور اجتناب از بیشبرازش دادهها جلوگیری میکند.
عیب درخت رگرسیون ناپایداری مدل مجموعه دادهای است و با اندک تغییر در مجموعه دادهای باعث ایجاد مجموعه کاملا متفاوتی از مجموعه جداکنندهها میشود. در نتیجه این مدل، بهترین مدل نخواهد بود [8,9].از این رو، مدل درخت تصمیم برای بیشبرازش دادهها مستعد است. به این علت، روشهای پیچیدهتر درختی (جنگل تصادفی، درختهای تقویتی) اغلب قابل اطمینانتر بنظر میآیند. به دلیل این دشواریها، از روش k مرتبه برای ساخت مدل پیشبینی استفاده شد. چون بیشبرازش رخ داد، مدل تنظیم شد.
3-2-3 رگرسور جنگل تصادفی
با کاربرد یک جنگل تصادفی، به این روش میتوان یک جنگل درختی تولید کرد و با استفاده از مفهوم «تجمیع بندچکمهای[1]» (در کیسه ریختن[2]) تا چندین مجموعه دادهای مشابه ایجاد کرد که از منبع مجموعه دادههای یکسان نمونهگیری شده باشد. در کیسه ریختن روش ترکیبی یک مدل اساسی آموزشی برای دادههای آموزشی است. به دلیل اریب کوچک و واریانس بسیار بزرگتر این روش، مدل درختی در برابر فوق برازش آسیبپذیر است. فایده روش جنگل این است که به شدت ناپایداری را کاهش میدهد. اگرچه عیب دیگر روش درخت تصمیم این است که دادهها را به اجزا کوچکش تبدیل میکند اگرچه درخت تصمیم به تنهایی قادر است یادگیری ماشین را اجرا کند. بهمنظور ممانعت از بیشبرازش، راههای زیادی برای ایجاد مدلهای جنگل تصادفی با چندین درخت تصمیم یا تنظیم وجود دارد. در نتیجه، در این بررسی، مدل، تنظیم شده بود.
4-2-3 پرسپترون چند لایهای
شبکه عصبی مصنوعی یک الگوریتم یادگیری آماری است که از شبکههای عصبی زیست شناختی اقتباس شد. مدل شبکه عصبی مصنوعی شامل تعدادی نرون های در هم تنیده و متصل است. این مدل از سوی مک کالوچ و پیتز[3] در سال 1943 پیشنهاد شد و هنوز معمولترین مدل کاربردی در ساخت دیگر شبکههای عصبی مصنوعی است. این شبکه شامل ویژگیهای اصلی شبکه های عصبی زیست شناختی یعنی موازی بودن و اتصال است. ساخترهای نرونی مصنوعی شامل کلاً 5 بخش است: ورودی، وزنها، تابع جمع، تابع فعالسازی و خروجی. پرسپترون شبکه عصبی مصنوعی در شکل 3 (ه) نشان داده شده است. در این شکل، دایره یک گره یا نرون نامیده می شود، Xi نشاندهنده سیگنال ورودی است که به هر نرون اعمال میشود، y خروجی است و wi وزن است. وقتی سیگنال ورودی به نرون ارسال میشود، همه این سیگنالها ضرب در وزن خودشان میشوند، هنگامی که مجموع سیگنالها از حد مجموعه تجاوز نماید، تابع جمع برای محاسبه ورودی خالص که یک نرون از آن استفاده میکند. مجموع وزندار مقادیر ورودی با استفاده از معادله زیر محاسبه میشود:
که در این معادله netj نرونj ام ، wij پارامترهای نشانگر وزن هر سیگنال، xi مقدار ورودی و b اریب است[10].
در این زمان،تابع فعالسازی با ورودی خالص حاصل از تابع پیش می رود و در تعیین امکان ایجاد خروجی نقش مهمی ایفا میکند. چند تابع فعالسازی از جمله، سیگمویید، واحد خطی یکسو شده و تابع پلهای وجود دارد. در این بررسی، از واحد خطی یکسو شده به عنوان تابع فعالسازی استفاده شد. اگرچه تابع سیگمویید در چندین مطالعه به عنوان تابع فعالسازی استفاده شده است[11,12]. دلیل استفاده از تابع واحد خطی همسو شده این است که تابع سیگمویید تابعی دوتایی است. اگر چند لایه باشد، مقادیرهر پله تفریق میشود و نتایج از لایه اول میگذرند. اگر لایههای داخلی پنهان از توابع سیگمویید تشکیل شده باشد، همه مقادیری که در هر پله محاسبه شدهاند باید بین 0 و 1 باشند. بعلاوه، مقادیر حاصل بسیار کوچک میشوند، یعنی، 1 زمانی که مقدار تابع سیگمویید بسیار زیاد یا بسیار کم باشد. این باعث می شود در شبکههای عمیق و با یادگیری ضعیف شیبها به صفر برسد. اگرچه، تابع واحد خطی همسوشده تابعی است که اخیراً زیاد از آن استفاده شده است، این تابع در صورتیکه ورودی از صفر بیشتر شود ورودی را باز میگرداند و اگر ورودی زیر صفر باشد آن را به صفر باز میگرداند. در نتیجه، سرعت یادگیری بسیار زیاد خواهد شد. بعلاوه، تابع واحد خطی همسو شده قادر است بر مشکل به صفر رسیدن گرادیان غلبه کند[13] . از این رو، این واحد خطی همسوشده در مورد لایه پنهان داخلی و تابع آدام[4] در آخرین لایه خارجی بکار رفت.
شبکه عصبی از لایههای گرهدار ورودی و خروجی تشکیل شده است، این شبکه طوری طراحی شده است تا وزن های زیادی قبول کند تا در نتیجه ورودی مشخص یک خروجی داشته باشد. دادههای آموزشی و دادههای خروجی، مدلهای آموزشی از مجموعههای فوق استفاده میکند. الگوریتمهای یادگیری شبکه عصبی مصنوعی متنوعی وجود دارند که از پرکاربردترین آنها پرسپترون چندلایه است. یک پرسپترون چند لایه دارای یک لایه ورودی، یک لایه خروجی و یک لایه پنهان است که حداقل باید دارای یک لایه پنهان باشد. وقتی دو یا چند لایه شبکه عصبی پنهان باشد، این شبکه یک شبکه عمیق گفته میشود. چندین لایه نرونی با انتقال غیرخطی باعث میشود شبکه ارتباطات غیرخطی میان بردارهای ورودی و بردارهای خروجی را یاد بگیرد. الگوریتم یادگیری شبکهای با واحدهای پنهان از سوی روملهارت[5] معرفی شد[14]. این الگوریتم تحت عنوان انتشار به عقب نامیده شد. این الگوریتم الگوریتی است که بیشتر از همه استفاده میشود. برای هر نمونه آموزشی، الگوریتم انتشار به عقب پیشبینیهایی میکند و خطاها را اندازه میگیرد. که به عقب انتشار خواهند یافت. سپس، خطا دوباره تنظیم میشود. این کار با وزنها و اریبها لایههای پنهان و لایههای خروجی بهمنظور کاهش اختلاف میان دادههای آزمون و دادههای پیش بینی استفاده میشود. این فرایند معکوس بهطوری موثر گرادیان خطای همه وزنهای ارتباطی در شبکه را با انتشار گرادیان خطا به عقب محاسبه میکند. در این بررسی، کراس[6] که یک کتابخانه فایلی منبع- باز است برای ساخت مدل پرسپترون چندلایه استفاده شد. کراس از الگوریتم انتشار به عقب بهطور خودکار استفاده میکند. برای ساخت یک مدل پرسپترون چند لایه، تعداد لایهها، تعداد نرونها در هر لایه، تابع فعالسازی، تابع زیان، باید تعیین شوند. یونگ[7] و همکاران[15] از یک الگوریتم پرسپترون چندلایه با دو لایه پنهان و 10 و 5 نرون استفاده کرد. در این بررسی، 8 ویژگی متغییر برای مقادیر ورودی و دو لایه پنهان استفاده شدند. بعلاوه، تعداد نرونهای هر لایه پنهان برای ایجاد مدلی به ترتیب با 5 و 10 نرون، قابل استفاده است. در حالت پرسپترون چندلایه، تعداد بررسیها قابل تعیین است و هر چه تعداد بررسیها بیشتر باشد (تحت عنوان «دوره[8]» نامیده میشود) با توجه به داده یادگیری خطا کوچکتر میشود. اما این باعث بیش برازش میشود. برای اجتناب از بیش برازش، یک روش اولیه توقف استفاده میشود تا اگر خطاها نسبت به دوره قبل بیشتر شد یادگیری متوقف شود.
دیدگاهتان را بنویسید