'COMPUTER > Machine Learning' 카테고리의 다른 글

TensorFlow Mnist Beginner Code  (0) 2015.12.03
머신 러닝 관련 용어  (0) 2015.07.17
Likelihood Function  (0) 2013.05.06
loss function  (0) 2013.05.06
매니폴드 러닝 (Manifold Learning)  (0) 2013.04.02

import tensorflow as tf


//Load data

x = tf.placeholder(tf.float32,[None,784])  //data가 들어갈 부분

W = tf.Variable(tf.zeros([784,10]))  //학습될 weight의 자리 - 0으로 초기화

b = tf.Variable(tf.zeros([10])) //학습될 bias b의 자리 - 0으로 초기화

y = tf.nn.softmax(tf.matmul(x,W)+b) //


//Train the model

y_=tf.placeholder(tf.float32,[None,10])

cross_entropy = -tf.reduce_sum(y_ * tf.log(y))

train_step = tf.train.GradientDescentOptimizer(0.01).minimize(cross_entropy)

init = tf.initialize_all_variables()

sess = tf.Session()

sess.run(init)


//실제 train하는 부분 //데이터를 100개씩 1000번 주면서 train_step을 밟음

for i in range(1000):

  batch_xs, batch_ys = mnist.train.next_batch(100)

  sess.run(train_step, feed_dict={x: batch_xs, y_: batch_ys})


//Evaluate the model

correct_prediction = tf.equal(tf.argmax(y,1), tf.argmax(y_,1))

accuracy = tf.reduce_mean(tf.cast(correct_prediction, "float"))

print sess.run(accuracy, feed_dict={x: mnist.test.images, y_: mnist.test.labels})


'COMPUTER > Machine Learning' 카테고리의 다른 글

추천 공부 할 링크  (0) 2022.06.20
머신 러닝 관련 용어  (0) 2015.07.17
Likelihood Function  (0) 2013.05.06
loss function  (0) 2013.05.06
매니폴드 러닝 (Manifold Learning)  (0) 2013.04.02

 tensor :  the relationship among the various dimensions is represented by higher-order matrices 

한마디로 다차원 행렬로 표현된 여러 피처들 사이의 어떤 관계

tensor factorization : 이런 tensor를 여러개의 행렬 사이의 곱으로 표현되도록 하는 것

'COMPUTER > Machine Learning' 카테고리의 다른 글

추천 공부 할 링크  (0) 2022.06.20
TensorFlow Mnist Beginner Code  (0) 2015.12.03
Likelihood Function  (0) 2013.05.06
loss function  (0) 2013.05.06
매니폴드 러닝 (Manifold Learning)  (0) 2013.04.02

Likelihood Function또는 줄여서 Likelihood의 뜻


어떤 결과값 x 가 주어졌을때, Parameter set θ의 likelihood는  

 θ가 주어졌을 때, 결과값 x가 나올 확률로 추정된다.


따라서 Likelihood는 어떤 파라미터의 함수이고, \mathcal{L}(\theta |x) = P(x | \theta) 로 표현된다.


우리가 어떤 경우에 데이터 x를 가지고 있는데, 모델을 학습하기 위해 Parameter set θ를 구하고 싶어 할 수 있다.

그럴때 뭔가 그 파라미터가 우리가 찾는 정답의 파라미터일 likelihood를 구하고 싶어지고, 그것을 P(x|θ)로 estimate한다는 것. 우리가 임의의 θ= a인 것의 Likelihood를 알고 싶다고 하면, 일단 θ= a라고 치고, x가 나올 확률을 구하면 된다는 뜻!!

'COMPUTER > Machine Learning' 카테고리의 다른 글

추천 공부 할 링크  (0) 2022.06.20
TensorFlow Mnist Beginner Code  (0) 2015.12.03
머신 러닝 관련 용어  (0) 2015.07.17
loss function  (0) 2013.05.06
매니폴드 러닝 (Manifold Learning)  (0) 2013.04.02

event->R로 매핑하는 함수

직관적으로 event와 관련된 어떤 cost로 매핑시켜주는 함수

전통적으로 parameter estimation에 많이 사용됨


classifiation 문제에서는 잘못된 분류의 penalty로 사용되는 경우가 많음

'COMPUTER > Machine Learning' 카테고리의 다른 글

추천 공부 할 링크  (0) 2022.06.20
TensorFlow Mnist Beginner Code  (0) 2015.12.03
머신 러닝 관련 용어  (0) 2015.07.17
Likelihood Function  (0) 2013.05.06
매니폴드 러닝 (Manifold Learning)  (0) 2013.04.02

http://blog.naver.com/PostView.nhn?blogId=intelo&logNo=20067835891

http://markov.tistory.com/40


뭔가 여러차원에 있던 점 들을 euclidean distance를 통해 유사도를 구하게 되면, 그 차원이 직접적으로 유사도에 관련이 없을 때, 정확하지 못한 한계가 생기게 된다.

 이를 극복하기 위해서 새로운 평면에 점을 찍고, 이 평면에서의 euclidean distance와 실제 차이가 같게 되도록 하는 새로운 평면을 찾아내는 작업을 하는 것이 manifold learning(일종의 Dimension Reduction)이고 이것을 학습하기 위한 알고리즘은 래 등이 있음

Isomap은 그래프 상에서 두 노드 간의 최단 경로(shortest path)의 길이를 d(xi,xj)로 사용합니다. 경로의 길이 = [경로상의 링크들의 길이의 합]이고, 각 링크의 길이는 일반적으로 유클리디안 거리를 씁니다. 충분히 가까운 두 점 사이에만 링크가 존재하도록 인접 그래프를 만들었고, 매니폴드의 정의상 충분히 가까운 점들간에는 유클리디안 거리와 실제 거리가 거의 일치하니, 유클리디안 거리를 써도 되는 거죠.

LLE는 우선 각 노드 xi를 이웃한(= xi로의 링크가 존재하는) 다른 노드들의 선형 결합(linear combination)으로 표현하는 것부터 시작합니다. xi와 이웃한 노드들의 집합을 Ni라고 하면, 아래와 같은 등식(wij는 실수값, xj는 벡터)을 가장 잘 만족하는wij들을 구하는 거죠(Ni에 속하지 않은 xj들에 대한 wij는 모두 0).

'COMPUTER > Machine Learning' 카테고리의 다른 글

추천 공부 할 링크  (0) 2022.06.20
TensorFlow Mnist Beginner Code  (0) 2015.12.03
머신 러닝 관련 용어  (0) 2015.07.17
Likelihood Function  (0) 2013.05.06
loss function  (0) 2013.05.06

+ Recent posts