امروز چهارشنبه ، ۱۴۰۱/۰۴/۱۵
بدان
FAENZYXWVUTSRQPONMLKJIHGFEDCBA

AdaBoost

AdaBoost به چه معناست؟ AdaBoost نوعی الگوریتم است که از رویکرد یادگیری گروهی برای وزن دادن به ورودی های مختلف استفاده می کند. در اوایل قرن بیست و یکم توسط Yoav Freund و Robert Schapire طراحی شد. اکنون تا حدودی به روشی برای انواع مختلف تقویت در پارادایم های یادگیری ماشین تبدیل شده است.Bedan AdaBoost را توضیح می دهد کارشناسان در مورد AdaBoost به عنوان یکی از بهترین ترکیب‌های وزن‌دار طبقه‌بندی‌کننده صحبت می‌کنند – و ترکیبی که به نویز حساس است و منجر به نتایج یادگیری ماشینی خاص می‌شود. برخی از سردرگمی‌ها ناشی از این واقعیت است که AdaBoost می‌تواند با چندین نمونه از یک طبقه‌بندی‌کننده با پارامترهای مختلف استفاده شود - جایی که متخصصان ممکن است در مورد AdaBoost 'فقط یک طبقه‌بندی‌کننده' صحبت کنند و در مورد چگونگی وزن‌دهی گیج شوند. AdaBoost همچنین فلسفه خاصی را در ماشین ارائه می‌کند. یادگیری - به عنوان یک ابزار یادگیری گروهی، از این ایده اساسی ناشی می شود که بسیاری از یادگیرندگان ضعیف می توانند نتایج بهتری نسبت به یک نهاد یادگیری قوی تر به دست آورند. با AdaBoost، کارشناسان یادگیری ماشین اغلب سیستم‌هایی را ایجاد می‌کنند که تعدادی ورودی را دریافت کرده و آنها را برای یک نتیجه بهینه ترکیب می‌کنند. برخی این ایده را تا حدی گسترده تر می گیرند و در مورد اینکه چگونه AdaBoost می تواند به 'ارتش های تصمیم گیری' فرمان دهد که اساساً یادگیرندگان کمتر پیچیده ای هستند که در تعداد زیادی برای خرد کردن داده ها به کار گرفته می شوند، جایی که این رویکرد نسبت به استفاده از یک طبقه بندی کننده به خوبی دیده می شود.

AdaBoost

What Does AdaBoost Mean? AdaBoost is a type of algorithm that uses an ensemble learning approach to weight various inputs. It was designed by Yoav Freund and Robert Schapire in the early 21st century. It has now become somewhat of a go-to method for different kinds of boosting in machine learning paradigms. Techopedia Explains AdaBoost Experts talk about AdaBoost as one of the best weighted combinations of classifiers – and one that is sensitive to noise, and conducive to certain machine learning results. Some confusion results from the reality that AdaBoost can be used with multiple instances of the same classifier with different parameters – where professionals might talk about AdaBoost 'having only one classifier' and get confused about how weighting occurs.AdaBoost also presents a particular philosophy in machine learning – as an ensemble learning tool, it proceeds from the fundamental idea that many weak learners can get better results than one stronger learning entity. With AdaBoost, machine learning experts are often crafting systems that will take in a number of inputs and combine them for an optimized result. Some take this idea to a further extent, talking about how AdaBoost can command 'armies of decision stumps' that are essentially less sophisticated learners employed in large numbers to crunch data where this approach is seen favorably over using a single classifier.