일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | |||||
3 | 4 | 5 | 6 | 7 | 8 | 9 |
10 | 11 | 12 | 13 | 14 | 15 | 16 |
17 | 18 | 19 | 20 | 21 | 22 | 23 |
24 | 25 | 26 | 27 | 28 | 29 | 30 |
- 한국어
- 매크로
- DeepLearning
- TensorFlow Tutorials
- 번역
- SQL
- 신경망
- neural networks
- deep learning
- 행복
- Andrej Karpathy
- SAS
- Hvass-Lab
- tensorflow
- 인공지능
- 사랑
- 세상
- 질문
- 답변
- machine learning
- Artificil Intelligence
- 강화학습
- Reinforcement Learning
- Tutorial
- 꿈
- cs231n
- 딥러닝
- 머신러닝
- tutorials
- openai
- Today
- Total
Economics & Deeplearning
AN INTERGRATED NEURAL NETWORK STRUCTURE FOR RECOGNIZING AUTOCORRELATED AND TRENDING PROCESSES 본문
AN INTERGRATED NEURAL NETWORK STRUCTURE FOR RECOGNIZING AUTOCORRELATED AND TRENDING PROCESSES
이슈카 2016. 2. 4. 16:09AN INTERGRATED NEURAL NETWORK STRUCTURE FOR RECOGNIZING AUTOCORRELATED AND TRENDING PROCESSES
(추세 과정과 자기상관 과정을 인지하기 위한 통합된 신경망 구조)
Aslan Deniz KARAOGLAN
이 논문은 산업 공학에서 쓰이는 컨트롤 차트의 데이터를 여러개의 LVQ와 MLP로 분해하고, trend(추세)와 autocorrelated(자기상관성)을 찾아낸다.
신경망의 구조이다. 샘플 데이터를 받아, 여러개의 신경망으로 분해한 후, 추세성을 찾아내고, 추세성이 있다고 한다면, Elman's Recurrent Neural Network 로 자기상관성을 찾아내고, AR(1) 모형인지 아닌지를 분류한다.
일반적인 MLP의 구조이다.
LVQ(learning vector quantization)은 자기조직화맵self-organizing maps (SOM)를 위한 사전 구조체(feature vector)이고, neural gas와 관련되어 있고, kNN을 적용하였다. neural gas는 1991년 Thomas Martinetz 와 Klaus Schulten에 의해 도입된 SOM의 영향을 받은 신경망의 한 구조이다.
LVQ는 관찰된 데이터의 특징 공간에서 정의된 프로토타입 W에 의해 표현된다. 주어진 거리 측정 방식에 따라 가까워진 각 데이터 포인트는, 승자독식(winner-take-all) 알고리즘에 의해 하나가 결정된다. 데이터 포인트를 잘 분류하면 더 가까워지고, 틀리면 멀어진다.
이 알고리즘은
1. 뉴런을 학습하기 위한 벡터들을 포함하는 인풋리스트 L에서 인풋 X 벡터들과 가중치뉴런W의 거리를 최소화는 값을 찾는다.(주어진 거리 측정방식에 의해)
2. 인풋 X와 W 벡터가 가까워지도록 W벡터를 업데이트한다.
3. 1로 돌아간다.
앞에서 나온 패턴들을 입력 벡터로 받는 RNN을 동작시켜서 AR(1)을 따르는지 판단한다.
'딥러닝' 카테고리의 다른 글
Windows에서 gym[atari] 설치하기 (33) | 2017.02.04 |
---|---|
Ubuntu 14.04 에서 아나콘다에 Tensorflow 설치하기 (34) | 2016.04.18 |
Time Series Classification Using Multi-Channels Deep Convolutional Neural Networks (0) | 2016.01.25 |