#人工知能 関連用語メモ version 4
:追加された部分
:削除された部分
(差分が大きい場合、文字単位では表示しません)
#ディープラーニング 関連用語メモ #人工知能
ディープラーニング方面を中心に、人工知能まわりの勉強用メモ
## 脳/神経周辺
neuron(ニューロン)
: 神経細胞のこと。脳は1000億くらいのニューロンで成り立っているらしい。
synapse(シナプス)
: 神経細胞において、神経細胞間での情報を受け渡しを担う部分。細胞内は電気で情報が伝わり、シナプスではそれが神経伝達物質の受け渡しという形に変換される。
ML/Machine Learning(機械学習)
: ディープラーニングに限らず、機械に何かを学習させて活用すること
NN/Neural Network
: 人間の神経系の働きをモデルにして考案された、データ処理のアルゴリズム的なもの
DNN/Deep Neural Network
: ニューラルネットワークを複数階層重ねて、より脳に近い形で処理させる手法。
RNN/Recurrent Neural Network
:
CNN/Convolutional Neural Network
LSTM/Long short-term memory
classification/分類
: DNNができることは要するに「分類する」ということで、例えば手書きのアルファベットの文字が「a-z」のどれかを分類したり、流れてきた
# Tool
Tensor Flow
Chainer
[Theano](http://deeplearning.net/software/theano/)
: GPUでの計算
# 使われる関数など
以下は多分各DNNフレームワーク側で用意されてそうなので、用語とその意味/役割を把握しとけばよさそう
活性化関数
: ニューロンは、複数のニューロンからの電気信号を受取り、その合計によって次のニューロンに信号を送るかが決まる。それの仕組みを関数化したもの。
: ニューロンは、複数のニューロンからの電気信号を受取り、その合計によって次のニューロンに信号を送るか/どう送るかが決まる。その仕組みを関数化したものの総称。色んな関数が提案されている。
ReLU/Rectified Linear Unit(ランプ関数)
: 活性化関数の一つで、入力が0以下なら0、0以上なら入力値を返すような関数。$f(x)=max(0,x)$
単純な仕組みながら実際に使うと結構よい結果になる、らしい
softmax
: DNNで出力される最終的な数字を
softmax関数
: DNNで出力される最終的な結果を、処理しやすいように
確率として表示させる
合計が1になる(=それぞれの数字がパーセンテージになるようにする)関数。
maxout
maxout関数
: DNNの処理結果は、確率として表されることになるので、そのうち一番確率の高いものを1としてそれ以外を全部0にする関数
ディープラーニング方面を中心に、人工知能まわりの勉強用メモ
脳/神経周辺
- neuron(ニューロン)
- 神経細胞のこと。脳は1000億くらいのニューロンで成り立っているらしい。
- synapse(シナプス)
- 神経細胞において、神経細胞間での情報を受け渡しを担う部分。細胞内は電気で情報が伝わり、シナプスではそれが神経伝達物質の受け渡しという形に変換される。
- ML/Machine Learning(機械学習)
- ディープラーニングに限らず、機械に何かを学習させて活用すること
- NN/Neural Network
- 人間の神経系の働きをモデルにして考案された、データ処理のアルゴリズム的なもの
- DNN/Deep Neural Network
- ニューラルネットワークを複数階層重ねて、より脳に近い形で処理させる手法。
RNN/Recurrent Neural Network
CNN/Convolutional Neural Network
LSTM/Long short-term memory
- classification/分類
- DNNができることは要するに「分類する」ということで、例えば手書きのアルファベットの文字が「a-z」のどれかを分類したり、流れてきた
Tool
Tensor Flow
Chainer
- Theano
- GPUでの計算
使われる関数など
以下は多分各DNNフレームワーク側で用意されてそうなので、用語とその意味/役割を把握しとけばよさそう
- 活性化関数
- ニューロンは、複数のニューロンからの電気信号を受取り、その合計によって次のニューロンに信号を送るか/どう送るかが決まる。その仕組みを関数化したものの総称。色んな関数が提案されている。
- ReLU/Rectified Linear Unit(ランプ関数)
- 活性化関数の一つで、入力が0以下なら0、0以上なら入力値を返すような関数。\(f(x)=max(0,x)\)
単純な仕組みながら実際に使うと結構よい結果になる、らしい - softmax関数
- DNNで出力される最終的な結果を、処理しやすいように
確率として表示させる
合計が1になる(=それぞれの数字がパーセンテージになるようにする)関数。 - maxout関数
- DNNの処理結果は、確率として表されることになるので、そのうち一番確率の高いものを1としてそれ以外を全部0にする関数