본문 바로가기

Machine Learning

기계는 사람의 말을 어떻게 이해할까? 워드 임베딩(Word embedding) https://blog.naver.com/saltluxmarketing/221607368769 기계는 사람의 말을 어떻게 이해할까? 워드 임베딩(Word embedding) ​인간인 우리가 대화, 서류, 채팅 등을 통해 일상적으로 사용하는 언어를 '자연어 (Natural languag... blog.naver.com ​ 인간인 우리가 대화, 서류, 채팅 등을 통해 일상적으로 사용하는 언어를 '자연어 (Natural language)'라고 합니다. 그리고 이 자연어를 컴퓨터가 이해하도록 데이터화해서 기계가 처리하는 방법에 대해 연구하는 것을 '자연어 처리(NLP)'라고 하죠. 저희 솔트룩스가 가장 자신 있는 분야이기도 합니다 :-) ​ 특히 오늘은 자연어 처리 분야 중, 가장 보편적으로 사용되고 있으면서 ..
Dendritic Ih Selectively Blocks Temporal Summation of Unsynchronized Distal Inputs in CA1 Pyramidal Neurons Dendritic Ih Selectively Blocks Temporal Summation of Unsynchronized Distal Inputs in CA1 Pyramidal Neurons 간단히 먼저 설명하자면, 이 논문은 hippocampus에 있는 CA1 pyramidal neuron에 관한 논문이다. 특히 CA1 neuron의 distal에서 unsynchronized한 입력이 들어올 경우, dendrite의 Ih(HCN channel)가 temporal summation을 어떻게 선택적으로 block해줄 수 있는가에 관한 논문이다. 먼저 hippocampus가 뭘까. Hippocampus는 한글로 '해마'를 뜻한다. 이 해마는 기억을 담당하는데 주된 역할을 하는 것으로 알려져 있다. hipp..
[펌] Softmax 함수 출처: https://tensorflow.blog/%ED%95%B4%EC%BB%A4%EC%97%90%EA%B2%8C-%EC%A0%84%ED%95%B4%EB%93%A4%EC%9D%80-%EB%A8%B8%EC%8B%A0%EB%9F%AC%EB%8B%9D-3/ 소프트맥스는 뉴런의 출력 값에 지수함수를 적용하되 모든 뉴런에서 나온 값으로 정규화하는 형태를 가집니다. 예를 들어 강아지에 대한 소프트맥스 출력은 아래와 같습니다.시그모이드 함수를 적용한 (강아지, 고양이, 토끼) 의 확률이 (0.9, 0.8, 0.7) 인 경우 이를 이용해 를 구하면 이므로입니다. 여기서 구한 값으로 소프트맥스를 적용해 보겠습니다.이 됩니다. 같은 방식으로 (0.5, 0.2, 0.1) 인 경우도 구해 보겠습니다.이므로 소프트맥스 함수 ..
C++로 만드는 multilayer perceptron (MLP) 나도 이걸 왜 C++로 만들었는지 모르겄다 ^^;; node.h123456789101112131415class node{public: float w; float input; float output; node* tail; void link_node(node *pre, node *post){ pre->tail = post; } void cal_output(node *pre){ pre->output = (pre->input * pre->w); } };Colored by Color Scriptercs main.cpp123456789101112131415161718192021222324252627282930313233343536373839404142434445464748495051525354555657585960..
C++로 만드는 perceptron 학교 과제에서 perceptron 구현하는게 있었는데 그냥 올려본당 Class0 = {0.05, 0.1, 0.15, 0.2, 0.05, 0.3, 0.35, 0.4, 0.45, 0.49, 0.52, 0.56, 0.57, 0.82}Class1 = {0.12, 0.47, 0.48, 0.5, 0.55, 0.6, 0.65, 0.7, 0.75, 0.8, 0.85, 0.9, 0.95} 12345678910111213141516171819202122232425262728293031323334353637383940414243444546474849505152535455565758596061626364656667686970#include#include using namespace std; float w0 = -0.1;flo..