Stai vedendo 2 articoli - dal 1 a 2 (di 2 totali)
  • Autore
    Articoli
  • #5043

    AlbertoC
    Partecipante

    Buongiorno!
    Ho seguito il Meetup del 19 Ottobre a Milano, è stato molto interessante complimenti!

    Nel secondo talk si è parlato di come applicare il Deep Learning nel mondo Forex nello specifico utilizzando LSTM e CNN inoltre veniva utilizzata la PCA e gli AUTOENCODER.

    Questo poi veniva passato a un modello di Reinforcement Learning che li utilizzava per individuare una strategia di trading.

    Ho sentito che più avanti pubblicherete un articolo su questo argomento, ma vorrei chiedere i riferimenti al paper per comprendere la struttura della rete, e anche a quella famosa repository di Github di un “indiano” su cui si basava il Reinforcement learning!

    Vi ringrazio
    Alberto

    #5044

    Matteo Alberti
    Partecipante

    Ciao Alberto,
    Mi chiedi una cosa non semplice in realtà in quanto il codice implementato rappresentava una versione semplificata di paper molto piu complessi. Un esempio l’autoencoder era relativamente shallow (non stacked o v-ae). Comunque sia la base di riferimento la puoi consultare dal seguente paper:

    A deep learning framework for financial time series using stacked autoencoders and long-short term memory
    Wei Bao, Jun Yue, Yulei Rao

    Che racchiude tutto l’essenziale sia come preprocessing, come unsupervised reduction che di prediction con lstm.

    La parte basata su RL (ne puoi trovare sicuramente di migliori e più complesse) era la seguente: https://github.com/edwardhdlu/q-trader?files=1

    Ma ti consiglio di approfondire principalmente a livello matematico in primis dando una lettura ai seguente link:

    https://lilianweng.github.io/lil-log/2018/02/19/a-long-peek-into-reinforcement-learning.html

    https://www.kaggle.com/itoeiji/deep-reinforcement-learning-on-stock-data

    Spero di esserti stato d’aiuto

    Matteo

Stai vedendo 2 articoli - dal 1 a 2 (di 2 totali)

Devi essere loggato per rispondere a questa discussione.