تابع فعال سازی
عملکرد فعال سازی به چه معناست؟ تابع فعال سازی تابعی است در یک نورون مصنوعی که خروجی را بر اساس ورودی ها ارائه می کند. توابع فعال سازی در نورون های مصنوعی بخش مهمی از نقشی است که نورون های مصنوعی در شبکه های عصبی مصنوعی مدرن ایفا می کنند.Bedan عملکرد فعال سازی را توضیح می دهد یکی از راههای درک عملکرد فعالسازی، نگاه کردن به «مدل» بصری نورون مصنوعی است. تابع فعال سازی در 'انتهای' ساختار عصبی است و تقریباً با آکسون یک نورون بیولوژیکی مطابقت دارد. راه دیگر برای درک آن، نگاه کردن به اصطلاحات پیرامون استفاده از آن است. متخصصان فناوری اطلاعات هنگام بحث درباره خروجی باینری - اعم از 1 یا 0 - یا تابعی که طیفی از خروجی ها را بر اساس ورودی ها نمودار می کند، در مورد عملکرد فعال سازی صحبت می کنند. در این موارد، متخصصان فناوری اطلاعات و سایرین اغلب از اصطلاحات «عملکرد انتقال» و «عملکرد فعالسازی» به جای یکدیگر استفاده میکنند، اگرچه تابع انتقال اغلب با نموداری که طیفی از خروجیها را اسکن میکند مرتبط است. توابع مختلف خروجی را که از طریق لایههای شبکه عصبی فیلتر میکند به لایه خروجی نهایی نورونها یا گرهها هدایت میکنند. همچنین تمایز بین توابع فعالسازی خطی و غیرخطی مهم است. در جایی که توابع فعال سازی خطی ثابت نگه می دارند، توابع فعال سازی غیرخطی تنوع بیشتری ایجاد می کنند که از ساخت شبکه عصبی استفاده می کند. توابعی مانند sigmoid و ReLU معمولاً در شبکههای عصبی برای کمک به ساخت مدلهای کاری استفاده میشوند.
Activation Function
What Does Activation Function Mean? An activation function is the function in an artificial neuron that delivers an output based on inputs. Activation functions in artificial neurons are an important part of the role that the artificial neurons play in modern artificial neural networks. Techopedia Explains Activation Function One way to understand the activation function is to look at a visual “model” of the artificial neuron. The activation function is at the “end” of the neural structure, and corresponds roughly to the axon of a biological neuron.Another way to understand it is to look at the terminology around its use. IT professionals talk about the activation function when discussing either a binary output – either a 1 or a 0 – or a function that graphs a range of outputs based on inputs. In these cases, IT professionals and others often use the terms “transfer function” and “activation function” interchangeably, although the transfer function is more often associated with the graph that scans a range of outputs. Various functions guide the output that filters through the layers of the neural network to the final output layer of neurons or nodes.It is also important to distinguish between linear and non-linear activation functions. Where linear activation functions maintain a constant, non-linear activation functions create more variation which utilizes the build of the neural network. Functions like sigmoid and ReLU are commonly used in neural networks to help build working models.