- Home
- /
- Posts
- /
- Deep Learning
Softmax Function
Table of Contents
Softmax Function
$ \sigma(\mathbf{x}) = \dfrac{e^{xi}}{\sum{j=1}^{K} e^{\mathbf{x}_i}} $
ここで、$ \sigma: \mathbb{R}^K \to (0, 1)^K $、$ K > 1 $、ベクトル$ \mathbf{x} = (x_1, …, x_K) \in \mathbb{R}^K $
Softmax functionはneural networkの最終層でactivation functionとして使用される。
“softargmax"と"normalized exponential function"という用語は"softmax function"の同義語である。
Softmax functionはsigmoid functionのone-hot arg maxの滑らかな近似である。