Anexo. 1 Figuras

Figura 1: Relación entre IA-ML-DL
IA engloba a ML y ML engloba a DL

Tirado de: Deep learning with R de Chollet and Allaire (2018).

Figura 2: Programación clásica y machine learning
Muestra un esquema que explica de manera general el paradigma de la programación clasica y el uso de machine learning. Mostrandose en el primero como se introducen reglas y datos para obtener respuestas, mientras que en machine learning se introducen datos y respuestas para obtener reglas

Tirado de: Deep learning with R de Chollet and Allaire (2018).

Figura 3: Estrutura básica dunha rede neuronal artificial
Muestra un esquema el esquema de la estructura básica de una RNA. Se muestra como los diferentes las diferentes entradas se conectan a cada uno de los nodos de las capa oculta y a su vez como cada uno de los nodos de la capa oculta se conecta a los nodos de la capa de salida. Los nodos de la capa oculta y la capa de salida también están conectados a un parámetro bias

Tirado de: Tema 14: redes neuronales de Larrañaga (2007).

Figura 4: Como afecta o tamaño do filtro ao vector de saída

Elaboración propia: Elaborado dende Jing (2020). Mostra como cambia o tamaño do vector de saída segundo o tamaño do filtro que se utilice.

Figura 5: Como afecta a zancada ao vector de saída

Elaboración propia: Elaborado dende Jing (2020). Mostra como o parámetro stride afecta o tamaño do vector de saída.

Figura 6: Como afecta a dilatación ao vector de saída

Elaboración propia: Elaborado dende Jing (2020). Mostra como afecta o parámetro de dilatación ao tamaño do vector de saída.

Figura 7: Como afecta o recheo ao vector de saída

Elaboración propia: Elaborado dende Jing (2020). Mostra como o parámetro de recheo afecta o tamaño do vector de saída.

Figura 8: Implantación do bucle dunha rede neuronal recorrente estándar

Tirado de: Understanding LSTM networks, Olah (2015).

Figura 9: Información relevante cercana

Tirado de: Understanding LSTM networks, Olah (2015).

Figura 10: Información relevante lejana

Tirado de: Understanding LSTM networks, Olah (2015).

Figura 11: Diferenza entre módulos de repetición

Tirado de: Understanding LSTM networks, Olah (2015).

Figura 12: Funcionalidade LSTM: representación do paso 1

Tirado de: Understanding LSTM networks, Olah (2015).

Figura 13: Funcionalidade LSTM: representación do paso 2

Tirado de: Understanding LSTM networks, Olah (2015).

Figura 14: Funcionalidade LSTM: representación do paso 3

Tirado de: Understanding LSTM networks, Olah (2015).

Figura 15: Funcionalidade LSTM: representación do paso 4

Tirado de: Understanding LSTM networks, Olah (2015).

Figura 16: Visualización vectorial de entrada e saída

Elaboración propia: Feita a partir dunha imaxe en Chollet and Allaire (2018). Mostra como son os vectores de entrada e saída tridimensionais dos datos dunha empresa, se se usan tres observacións para crear o vector de entrada.

Figura 17: Diferentes estruturas dependendo dos diferentes tamaños dos vectores de entrada

Elaboración propia: Elaborouse a partir dos diferentes modelos construídos utilizando os paquetes keras e tensorflow en R, e representáronse gráficamente mediante o paquete Iannone (2023).

Figura 18: Dominio de ReLU e Leaky ReLU

Elaboración propia: Elaborada a partir das imaxes que se observan en Rallabandi (2023).

Figura 19: Diagrama de fluxo da metodoloxía Walk Forward Validation

Elaboración propia