'COMPUTER > Machine Learning' 카테고리의 다른 글
TensorFlow Mnist Beginner Code (0) | 2015.12.03 |
---|---|
머신 러닝 관련 용어 (0) | 2015.07.17 |
Likelihood Function (0) | 2013.05.06 |
loss function (0) | 2013.05.06 |
매니폴드 러닝 (Manifold Learning) (0) | 2013.04.02 |
TensorFlow Mnist Beginner Code (0) | 2015.12.03 |
---|---|
머신 러닝 관련 용어 (0) | 2015.07.17 |
Likelihood Function (0) | 2013.05.06 |
loss function (0) | 2013.05.06 |
매니폴드 러닝 (Manifold Learning) (0) | 2013.04.02 |
import tensorflow as tf
//Load data
x = tf.placeholder(tf.float32,[None,784]) //data가 들어갈 부분
W = tf.Variable(tf.zeros([784,10])) //학습될 weight의 자리 - 0으로 초기화
b = tf.Variable(tf.zeros([10])) //학습될 bias b의 자리 - 0으로 초기화
y = tf.nn.softmax(tf.matmul(x,W)+b) //
//Train the model
y_=tf.placeholder(tf.float32,[None,10])
cross_entropy = -tf.reduce_sum(y_ * tf.log(y))
train_step = tf.train.GradientDescentOptimizer(0.01).minimize(cross_entropy)
init = tf.initialize_all_variables()
sess = tf.Session()
sess.run(init)
//실제 train하는 부분 //데이터를 100개씩 1000번 주면서 train_step을 밟음
for i in range(1000):
batch_xs, batch_ys = mnist.train.next_batch(100)
sess.run(train_step, feed_dict={x: batch_xs, y_: batch_ys})
//Evaluate the model
correct_prediction = tf.equal(tf.argmax(y,1), tf.argmax(y_,1))
accuracy = tf.reduce_mean(tf.cast(correct_prediction, "float"))
print sess.run(accuracy, feed_dict={x: mnist.test.images, y_: mnist.test.labels})
추천 공부 할 링크 (0) | 2022.06.20 |
---|---|
머신 러닝 관련 용어 (0) | 2015.07.17 |
Likelihood Function (0) | 2013.05.06 |
loss function (0) | 2013.05.06 |
매니폴드 러닝 (Manifold Learning) (0) | 2013.04.02 |
tensor : the relationship among the various dimensions is represented by higher-order matrices
한마디로 다차원 행렬로 표현된 여러 피처들 사이의 어떤 관계
tensor factorization : 이런 tensor를 여러개의 행렬 사이의 곱으로 표현되도록 하는 것
추천 공부 할 링크 (0) | 2022.06.20 |
---|---|
TensorFlow Mnist Beginner Code (0) | 2015.12.03 |
Likelihood Function (0) | 2013.05.06 |
loss function (0) | 2013.05.06 |
매니폴드 러닝 (Manifold Learning) (0) | 2013.04.02 |
Likelihood Function또는 줄여서 Likelihood의 뜻
어떤 결과값 x 가 주어졌을때, Parameter set θ의 likelihood는
θ가 주어졌을 때, 결과값 x가 나올 확률로 추정된다.
따라서 Likelihood는 어떤 파라미터의 함수이고, 로 표현된다.
우리가 어떤 경우에 데이터 x를 가지고 있는데, 모델을 학습하기 위해 Parameter set θ를 구하고 싶어 할 수 있다.
그럴때 뭔가 그 파라미터가 우리가 찾는 정답의 파라미터일 likelihood를 구하고 싶어지고, 그것을 P(x|θ)로 estimate한다는 것. 우리가 임의의 θ= a인 것의 Likelihood를 알고 싶다고 하면, 일단 θ= a라고 치고, x가 나올 확률을 구하면 된다는 뜻!!
추천 공부 할 링크 (0) | 2022.06.20 |
---|---|
TensorFlow Mnist Beginner Code (0) | 2015.12.03 |
머신 러닝 관련 용어 (0) | 2015.07.17 |
loss function (0) | 2013.05.06 |
매니폴드 러닝 (Manifold Learning) (0) | 2013.04.02 |
event->R로 매핑하는 함수
직관적으로 event와 관련된 어떤 cost로 매핑시켜주는 함수
전통적으로 parameter estimation에 많이 사용됨
classifiation 문제에서는 잘못된 분류의 penalty로 사용되는 경우가 많음
추천 공부 할 링크 (0) | 2022.06.20 |
---|---|
TensorFlow Mnist Beginner Code (0) | 2015.12.03 |
머신 러닝 관련 용어 (0) | 2015.07.17 |
Likelihood Function (0) | 2013.05.06 |
매니폴드 러닝 (Manifold Learning) (0) | 2013.04.02 |
http://blog.naver.com/PostView.nhn?blogId=intelo&logNo=20067835891
http://markov.tistory.com/40
뭔가 여러차원에 있던 점 들을 euclidean distance를 통해 유사도를 구하게 되면, 그 차원이 직접적으로 유사도에 관련이 없을 때, 정확하지 못한 한계가 생기게 된다.
이를 극복하기 위해서 새로운 평면에 점을 찍고, 이 평면에서의 euclidean distance와 실제 차이가 같게 되도록 하는 새로운 평면을 찾아내는 작업을 하는 것이 manifold learning(일종의 Dimension Reduction)이고 이것을 학습하기 위한 알고리즘은 아래 등이 있음
Isomap은 그래프 상에서 두 노드 간의 최단 경로(shortest path)의 길이를 d(xi,xj)로 사용합니다. 경로의 길이 = [경로상의 링크들의 길이의 합]이고, 각 링크의 길이는 일반적으로 유클리디안 거리를 씁니다. 충분히 가까운 두 점 사이에만 링크가 존재하도록 인접 그래프를 만들었고, 매니폴드의 정의상 충분히 가까운 점들간에는 유클리디안 거리와 실제 거리가 거의 일치하니, 유클리디안 거리를 써도 되는 거죠.
LLE는 우선 각 노드 xi를 이웃한(= xi로의 링크가 존재하는) 다른 노드들의 선형 결합(linear combination)으로 표현하는 것부터 시작합니다. xi와 이웃한 노드들의 집합을 Ni라고 하면, 아래와 같은 등식(wij는 실수값, xj는 벡터)을 가장 잘 만족하는wij들을 구하는 거죠(Ni에 속하지 않은 xj들에 대한 wij는 모두 0).
추천 공부 할 링크 (0) | 2022.06.20 |
---|---|
TensorFlow Mnist Beginner Code (0) | 2015.12.03 |
머신 러닝 관련 용어 (0) | 2015.07.17 |
Likelihood Function (0) | 2013.05.06 |
loss function (0) | 2013.05.06 |