機械学習やディープラーニングによく出てくるMathJax-Latexのコード一覧です。
Texコードのまとめサイトはいくつかありますが、分野ごとに分かれていると見やすいと感じたのでまとめてみました。
ギリシャ文字と特殊文字
| コード | 表示 | 意味 |
| \alpha | $\alpha$ | アルファ |
| \beta | $\beta$ | ベータ |
| \omega | $\omega$ | オメガ |
| \eta | $\eta$ | イータ |
| \mu | $\mu$ | ミュー |
| \varepsilon | $\varepsilon$ | イプシロン |
| \sigma | $\sigma$ | シグマ |
| \gamma | $\gamma$ | ガンマ |
| \partial | $\partial$ | 偏微分 |
| x^2 | $x^2$ | 上付き文字 |
| x_2 | $x_2$ | 下付き文字 |
| \hat{x} | $\hat{x}$ |
基本式と不等号
| コード | 表示 | 意味 |
| \frac{}{} | $\frac{1}{2}$ | 分数 |
| \sum_{}^{} | $\sum_{i=0}^{N}$ | シグマ式 |
| \sqrt{} | $\sqrt{2}$ | 二乗根 |
| \odot | $\odot$ | 要素積 |
| \approx | $\approx$ | ニアリーイコール |
| \geqq | $\geqq$ | 大なりイコール |
| \leqq | $\leqq$ | 小なりイコール |
実用例
シグモイド関数
$$h(x)=\frac{1}{1+exp(-x)}$$
h(x)=\frac{1}{1+exp(-x)}ReLu関数
$$h(x)=
\begin{cases}
x\quad(x > 0) \\
0\quad(x\leqq 0)
\end{cases}$$
h(x)=
\begin{cases}
x\quad(x > 0) \\
0\quad(x\leqq 0)
\end{cases}ソフトマックス関数
$$y_k=\frac{exp(a_k)+C’}{\sum_{i=1}^{n}exp(a_i+C’)}$$
y_k=\frac{exp(a_k)+C`}{\sum_{i=1}^{n}exp(a_i+C`)}二乗和誤差
$$
E=\frac{1}{2}\sum_{k}(y_k-t_k)^2
$$
E=\frac{1}{2}\sum_{k}(y_k-t_k)^2交差エントロピー誤差
$$
E=-\sum_{k}t_k\log y_k
$$
E=-\sum_{k}t_k\log y_k


コメント