Anexo. 1 Figuras

Figura 1: Relación entre IA-ML-DL
IA engloba a ML y ML engloba a DL

Tomada de: Deep learning with R de Chollet y Allaire (2018).

Figura 2: Programación clásica y machine learning
Muestra un esquema que explica de manera general el paradigma de la programación clasica y el uso de machine learning. Mostrandose en el primero como se introducen reglas y datos para obtener respuestas, mientras que en machine learning se introducen datos y respuestas para obtener reglas

Tomada de: Deep learning with R de Chollet y Allaire (2018).

Figura 3: Estructura básica de una red neuronal artificial
Muestra un esquema el esquema de la estructura básica de una RNA. Se muestra como los diferentes las diferentes entradas se conectan a cada uno de los nodos de las capa oculta y a su vez como cada uno de los nodos de la capa oculta se conecta a los nodos de la capa de salida. Los nodos de la capa oculta y la capa de salida también están conectados a un parámetro bias

Tomada de: Tema 14: redes neuronales de Larrañaga (2007).

Figura 4: Como el tamaño del filtro afecta el vector de salida

Elaboración propia: Elaborada a partir de Jing (2020). Muestra como el tamaño del vector de salida cambia según el tamaño de filtro que se usa.

Figura 5: Como stride afecta el vector de salida

Elaboración propia: Elaborada a partir de Jing (2020). Muestra como el parámetro stride afecta el tamaño del vector de salida.

Figura 6: Como dilation afecta el vector de salida

Elaboración propia: Elaborada a partir de Jing (2020). Muestra como el parámetro dilation afecta el tamaño del vector de salida.

Figura 7: Como padding afecta el vector de salida

Elaboración propia: Elaborada a partir de Jing (2020). Muestra como el parámetro padding afecta el tamaño del vector de salida.

Figura 8: Despliegue del bucle de una red neuronal recurrente estándar

Tomada de: Understanding LSTM networks, Olah (2015).

Figura 9: Información relevante cercana

Tomada de: Understanding LSTM networks, Olah (2015).

Figura 10: Información relevante lejana

Tomada de: Understanding LSTM networks, Olah (2015).

Figura 11: Diferencia entre los módulos de repetición

Tomada de: Understanding LSTM networks, Olah (2015).

Figura 12: LSTM funcionalidad: Representación del paso 1

Tomada de: Understanding LSTM networks, Olah (2015).

Figura 13: LSTM funcionalidad: Representación del paso 2

Tomada de: Understanding LSTM networks, Olah (2015).

Figura 14: LSTM funcionalidad: Representación del paso 3

Tomada de: Understanding LSTM networks, Olah (2015).

Figura 15: LSTM funcionalidad: Representación del paso 4

Tomada de: Understanding LSTM networks, Olah (2015).

Figura 16: Visualización de vectores de entrada y salida

Elaboración propia: Elaborada a partir de imagen en Chollet y Allaire (2018). Muestra como lucen los vectores tridimensionales de entradas y salidas correspondientes a los datos de una empresa, en el caso de que se usen tres observaciones para crear el vector de entrada.

Figura 17: Distintas estructras según los distintos tamaños de vectores de entrada

Elaboración propia: Elaborada a partir de las distintos modelos construidos usando los paquetes keras y tensorflow en R, y fueron gráficadas mediante el uso del paquete Iannone (2023).

Figura 18: Dominio de ReLU y Leaky ReLU

Elaboración propia: Elaborada a partir de las imagenes que se observan en Rallabandi (2023).

Figura 19: Diagrama de flujo de la metodología de Walk Forward Validation

Elaboración propia