resultados interesantes de LSTM RNN: resultados retardados de tren y validación de datos

votos
0

Como introducción a RNN / LSTM (sin estado) Estoy entrenando un modelo con secuencias de 200 días de datos anteriores (X), incluyendo cosas como cambio en el precio diario, cambio de volumen diario, etc., y para las etiquetas / YI tiene el precio% cambiar de precio actual a la de 4 meses. Básicamente quiero para estimar la dirección del mercado, a no ser fiable al 100%. Pero me estoy haciendo algunos resultados extraños ...

Cuando entonces probar mi modelo con los datos de entrenamiento, noto la salida del modelo es un ajuste perfecto cuando se compara con los datos reales, sólo queda por exactamente 4 meses:

introducir

Cuando cambio los datos de los 4 meses, se puede ver que es un ajuste perfecto.

introducir

obviamente, puedo entender por qué los datos de entrenamiento sería un ajuste muy cerca, ya que lo ha visto todo durante el entrenamiento - pero ¿por qué los 4 meses se quedan?

Se hace lo mismo con los datos de validación (tenga en cuenta la zona en la que resalta con la caja roja para futura referencia):

introducir

Desplazada en el tiempo:

introducir

No es tan ceñida al cuerpo como los datos de entrenamiento, como era de esperar, pero todavía demasiado cerca para mi gusto - Simplemente no creo que esto puede ser precisa (véase el pequeño bache en el rectángulo rojo como un ejemplo). Creo que el modelo está actuando como un predictor ingenua, simplemente no puedo encontrar la manera / por qué está posiblemente haciéndolo.

Para generar esta salida de la validación de datos, que de entrada una secuencia de 200 pasos de tiempo, pero no hay nada en la secuencia de datos que dice lo que el% de variación de precios será de 4 meses - es completamente desconectado, así que ¿cómo es que tan precisa? El retraso de 4 meses es, obviamente, otro indicador de que algo no está bien aquí, no sé cómo explicar esto, pero sospecho que los dos están relacionados.

Publicado el 07/11/2018 a las 22:49
fuente por usuario
En otros idiomas...                            


2 respuestas

votos
0

Traté de explicar la observación basada en un concepto general subyacente:

  1. Si no se proporciona un conjunto de datos de entrada X tiempo lag (tk quedado donde k es los pasos de tiempo), entonces básicamente va a ser la alimentación de la LSTM con el precio de cierre de hoy como para predecir el cierre de la misma hoy price..in la etapa de entrenamiento . El modelo (más de ajuste) y se comportan exactamente como la respuesta se conoce ya (fuga de datos)

  2. Si el Y es el porcentaje de cambio predicho (es decir. X * (1 +% Y) = 4 meses precio de futuro), el valor actual Yvalue predijo realmente es sólo el futuro descontado por el Y% por lo que el valor predicho tendrá 4 meses turno

Respondida el 28/11/2018 a las 14:18
fuente por usuario

votos
0

De acuerdo, me di cuenta de mi error; la forma en que estaba usando el modelo para generar la línea previsión era ingenuo. Por cada fecha en el gráfico anterior, que estaba recibiendo una salida del modelo, y luego aplicar el cambio% prevé que el precio real de esa fecha - que daría a los precios en el tiempo predicho 4 meses.

Teniendo en cuenta los mercados por lo general sólo se mueven dentro de un margen de 0-3% (más o menos) durante un período de 4 meses, que significaría mis previsiones siempre se iba a reflejar de cerca el precio actual, sólo con un retraso de 4 meses.

Así que en cada fecha de la salida predicha estaba siendo re-basa, por lo que la línea de modelos no se desviaría lejos de la real; que sería el mismo, pero dentro de un margen de 0-3% (más o menos).

En realidad, la gráfica no es importante, y que no refleja la forma en que voy a utilizar la salida de todos modos, así que voy a deshacerse de tratar de conseguir una representación visual, y concentrarse en tratar de encontrar diferentes métricas que reducen el pérdida de validación.

Respondida el 09/11/2018 a las 10:01
fuente por usuario

Cookies help us deliver our services. By using our services, you agree to our use of cookies. Learn more