LSTM(7)
-
[시계열] 주가 예측을 위한 RNN/LSTM/GRU 기술적 가이드 (번역)
우리의 일상에서 챗봇 고객 서비스, 이메일 스팸 탐지기, 음성 인식, 언어 번역, 주식 시장 예측 등과 상호작용하고 있습니다. 이 인공지능 상품들은 순환신경망(RNN), 롱숏-기간모델(LSTM) 그리고 게이트 순환망 (GRU)에 힘 입었습니다. 이 모델들은 시계열, 언어 패턴, 음성 패턴과 같은 순차적 데이터 예측에 최상의 예측을 가져오는 딥러닝의 중요한 가지들입니다. 회귀를 배우는 것 처럼 RNN, LSTM, GRU를 배우는 것은 쉽지 않습니다. 많은 수업에서 종종 회귀와 딥러닝 사이의 지식의 갭이 있다고 느꼈습니다. 용어의 차이 또한 지식의 갭을 만듭니다. 딥러닝으로 점프하기위해 많은 준비가 필요하며, 성공적으로 점핑한 학생들은 회귀로 쉽게 되돌아가지 않을 수 있습니다. ( 이 말장난이 마음에 들지도..
2021.03.30 -
[시계열] 케라스에서 Luong 어텐션을 활용한 seq2seq2 LSTM 모델 만들기 (번역)
원문 Building Seq2Seq LSTM with Luong Attention in Keras for Time Series Forecasting | by Huangwei Wieniawska | Level Up Coding (gitconnected.com) Building Seq2Seq LSTM with Luong Attention in Keras for Time Series Forecasting Do you want to try some other methods to solve your forecasting problem rather than traditional regression? There are many neural network… levelup.gitconnected.com 시계열 예측을 위..
2020.12.16 -
[LSTM] LSTM 네트워크 이해하기 (번역)
RNN (Recurrent Neural Networks) 사람은 매초 마다 처음부터 생각하지 않습니다. 당신이 이 에세이를 읽을 때, 당신은 이전의 말을 이해한 것을 기반으로 매 단어를 이해합니다. 당신은 모든것을 던지지 않고 처음부터 다시 생각하지 않습니다. 당신의 생각은 지속성을 가집니다. 전통적인 신경망은 이것을 할 수 없습니다, 그리고 주요한 단점으로 보입니다. 예를들어 당신이 영화에서 매 지점마다 무슨 종류의 일이 벌어지는지 분류하길 원한다고 상상해봅시다. 어떻게 전통적인 신경망이 이후의 것을 알리기 위해 영화속에서 이전의 사건들에 대한 추론을 사용할 수 있을지는 불명확합니다. RNN(Recurrent neural networks)는 이 문제를 다룹니다. 이는 정보가 지속되길 허락하면서, 그들 ..
2020.11.12 -
[신경망] LSTM 모델을 이용한 리뷰 요약하기
데이터 코드 import numpy as np import pandas as pd import re from keras.preprocessing.text import Tokenizer from keras.preprocessing.sequence import pad_sequences from bs4 import BeautifulSoup from nltk.corpus import stopwords import matplotlib.pyplot as plt path = "C:\\Users\\student\\Desktop\\DY\\★ 데이터\\402. word2vec\\" data=pd.read_csv(path + "Reviews.csv", nrows=60000) print(len(data)) >>> 60000 ..
2020.05.20 -
[자연어처리] LSTM을 이용한 챗봇(chatbot) 만들기
학습 데이터 import pandas as pd path = "C:\\Users\\student\\Desktop\\chatbot\\01.data\\" chatbotData=pd.read_csv(path+"ChatData.csv") question, answer = list(chatbotData["Q"]) , list(chatbotData["A"]) print(len(question)) print(len(answer)) >>> 11823 11823 for i in range(10): print("질문:" + question[i]) print("답변:" + answer[i]) print(" ") >>> 질문:12시 땡! 답변:하루가 또 가네요. 질문:1지망 학교 떨어졌어 답변:위로해 드립니다. 질문:3박4일..
2020.05.18 -
[신경망] LSTM을 이용한 "나비야" 작곡하기 코드
# (text) 텍스트를 읽어주는 라이브러리 from gtts import gTTS import numpy as np texte = "Hi, everybody, Playing with TF is fun" tts = gTTS(text=text , lang="en") tts.save("hi.mp3") textk = "안녕하세요. 여러분 텐서플로우 재미있어요" tts = gTTS(text=text , lang="ko") tts.save("hiko.mp3") ttsEn=gTTS(text=texte, lang="en") ttsKr=gTTS(text=textk, lang="ko") f = open("enkr.mp3","wb") ttsEn.write_to_fp(f) ttsEn.write_to_fp(f) ttsKr.w..
2020.05.08