امروز پنجشنبه ، ۱۴۰۱/۰۴/۱۶
بدان
FAENZYXWVUTSRQPONMLKJIHGFEDCBA

تابع فعال سازی

عملکرد فعال سازی به چه معناست؟ تابع فعال سازی تابعی است در یک نورون مصنوعی که خروجی را بر اساس ورودی ها ارائه می کند. توابع فعال سازی در نورون های مصنوعی بخش مهمی از نقشی است که نورون های مصنوعی در شبکه های عصبی مصنوعی مدرن ایفا می کنند.Bedan عملکرد فعال سازی را توضیح می دهد یکی از راه‌های درک عملکرد فعال‌سازی، نگاه کردن به «مدل» بصری نورون مصنوعی است. تابع فعال سازی در 'انتهای' ساختار عصبی است و تقریباً با آکسون یک نورون بیولوژیکی مطابقت دارد. راه دیگر برای درک آن، نگاه کردن به اصطلاحات پیرامون استفاده از آن است. متخصصان فناوری اطلاعات هنگام بحث درباره خروجی باینری - اعم از 1 یا 0 - یا تابعی که طیفی از خروجی ها را بر اساس ورودی ها نمودار می کند، در مورد عملکرد فعال سازی صحبت می کنند. در این موارد، متخصصان فناوری اطلاعات و سایرین اغلب از اصطلاحات «عملکرد انتقال» و «عملکرد فعال‌سازی» به جای یکدیگر استفاده می‌کنند، اگرچه تابع انتقال اغلب با نموداری که طیفی از خروجی‌ها را اسکن می‌کند مرتبط است. توابع مختلف خروجی را که از طریق لایه‌های شبکه عصبی فیلتر می‌کند به لایه خروجی نهایی نورون‌ها یا گره‌ها هدایت می‌کنند. همچنین تمایز بین توابع فعال‌سازی خطی و غیرخطی مهم است. در جایی که توابع فعال سازی خطی ثابت نگه می دارند، توابع فعال سازی غیرخطی تنوع بیشتری ایجاد می کنند که از ساخت شبکه عصبی استفاده می کند. توابعی مانند sigmoid و ReLU معمولاً در شبکه‌های عصبی برای کمک به ساخت مدل‌های کاری استفاده می‌شوند.

Activation Function

What Does Activation Function Mean? An activation function is the function in an artificial neuron that delivers an output based on inputs. Activation functions in artificial neurons are an important part of the role that the artificial neurons play in modern artificial neural networks. Techopedia Explains Activation Function One way to understand the activation function is to look at a visual “model” of the artificial neuron. The activation function is at the “end” of the neural structure, and corresponds roughly to the axon of a biological neuron.Another way to understand it is to look at the terminology around its use. IT professionals talk about the activation function when discussing either a binary output – either a 1 or a 0 – or a function that graphs a range of outputs based on inputs. In these cases, IT professionals and others often use the terms “transfer function” and “activation function” interchangeably, although the transfer function is more often associated with the graph that scans a range of outputs. Various functions guide the output that filters through the layers of the neural network to the final output layer of neurons or nodes.It is also important to distinguish between linear and non-linear activation functions. Where linear activation functions maintain a constant, non-linear activation functions create more variation which utilizes the build of the neural network. Functions like sigmoid and ReLU are commonly used in neural networks to help build working models.