python lstm 예제

이 특정 문제에 대 한 시간 단계 접근 방식 은 아마도 그것을 모델링 하는 가장 좋은 방법 이지만 이러한 예제 중 일부를 자신의 문제에 대 한 서식 파일로 사용 하려는 경우 선택할 수 있는 몇 가지 옵션이 있습니다. 이것은 장기 종속성을 암기 하기 위한 특별 한 뉴런. LSTM에는 한 셀에서 다른 셀로 전달되고 Operation Gates에서 수정하는 내부 상태 변수가 포함되어 있습니다(이 예제의 후반부에서 설명하겠습니다). 안녕하세요, 연습주셔서 감사합니다. 온라인 예측을 위해 네트워크를 실행하기 위해 코드를 수정하려고 시도했지만 몇 가지 문제가 있습니다. 당신은 내 SO 질문을 살펴 기꺼이 하시겠습니까? http://stackoverflow.com/questions/38313673/lstm-with-keras-for-mini-batch-training-and-online-testing 이 네트워크를 구성하는 방법에는 여러 가지가 있으며 노트북에는 여러 가지 방법이 있습니다. 예를 들어 서로 겹쳐진 두 개의 LSTM 레이어, 양방향에서 시퀀스를 처리하는 양방향 LSTM 레이어 또는 더 많은 밀도 레이어를 사용할 수 있습니다. 나는 잘 작동 하기 위해 위의 설정을 발견. 내 이해로, 창 방법으로 회귀에 대한 LSTM은 3 입력 기능과 하나의 출력을 예로 가지고 표준 MLP 방법과 동일합니다. 맞습니까? 차이점은 뭔가요? python34에있을 때 lstm 예제를 실행하고 여전히 동일한 문제를 얻습니다.

conda의 python34에서 실행할 때 lstm을 실행하지만 다른 종류의 컴파일 오류가 있습니다. 그러나 내가 배운 것과 조화를 이루려는 기본 아키텍처에 대한 몇 가지 질문이 있습니다. 나는 여기에 질문을 게시 : 내가이 포럼에 게시하기에 너무 오래 느꼈다 http://stackoverflow.com/questions/38714959/understanding-keras-lstms. 훌륭한 강의! 하지만 난 아직도 어떻게 든 lstm에 대 한 cofcd 느낌. 나는 1의 시간 단계와 3의 feature_size가 훌륭한 일을했다고 생각합니다. 그러나 lstm에서 3개의 타임스텝을 사용하여 교환할 때 시간 t+1의 예측은 시간 t의 지면 진실 값보다 약간 낮은 값처럼 보이며, 이는 예측 곡선이 실제 값의 오른쪽으로 이동하게 합니다. lstm은 마지막 단계에서 만 메모리를 배우고 조금 지연되는 것 같습니다. 여기서 는 각 시간 단계에서 새 단어가 제공되고 있음을 볼 수 있습니다 – 이전 F (즉, $h_{t-1}$)의 출력은 각 시간 단계에서 네트워크에 제공됩니다. 당신이 그 예의 단어가 무엇을 참조하는지 궁금해하는 경우, 그것은 내가 TensorFlow에서 내 이전 LSTM 튜토리얼에서 사용하는 예 문장입니다 : “여자가 술집에 걸어, 그녀는 `나는 제발 음료를 가질 수 있습니까?`라고 말했다.

바텐더는 `확실히`라고 말했다. 감사합니다, 나는 당신의 예를 기대! 나는 그렇게하는 장점과 단점을 정말로 궁금해한다. 복사된 코드를 lstmexample.py 저장했습니다. 실행: 유휴 인터프리터에서: exec(열기(`c:python34lstmexample.py`).read())를 통해 도스 쉘: 파이썬 c:python34lstmexample.py 상태 풀: 예를 들어 A와 같은 마지막 epoch [Y1] 출력의 교육 결과와 같은 의미 [X2] 네트워크의 입력이 될 까요 마지막 시대에서 A? 나는 현재 lstm 재발 신경망으로 작업하고 있으며 R-제곱을 어떻게 계산했는지 궁금합니다. R-제곱 계산에 대한 코드를 기꺼이 공유하시겠습니까? 정말 고마워요! 안녕하세요, 제이슨, 예제주셔서 감사합니다. 내 자신의 데이터에 메소드를 사용했습니다. 데이터는 월별 평균 온도 예측에 관한 것입니다. 한 달 이상 예측하고 싶습니다. 하지만 지금은 한 달밖에 예측할 수 없습니다. 입력은 X1 X2 X3이므로 결과는 y에 불과합니다.