16
Vol. 1 - Núm. 1 (Ene - Jun 2019) ISSN - e: 2661 - 6688
Inuencia de los Algoritmos de Entrenamiento de
RNAs en la Predicción del Nivel de Embalse de Agua
en una Estación Hidroeléctrica
Inuence of Training Algorithms of ANNs on the Prediction of
Reservoir Water Level of an Hydroelectric Station
E. Chaa
1,a
, G. Asqui-Santillán
2,b
, J. Paucar
3,c
, D. Olmedo-Vizueta
3,d
1
Ministerio del Interior, 17105, Quito, Ecuador
2
Transelectric CELEC E.P, 180250, Baños, Ecuador
3
Escuela Superior Politécnica de Chimborazo, 060150, Riobamba, Ecuador
Email: aedivax@hotmail.es, bleirbaggeo06@gmail.com, cjlpaucar@espoch.edu.ec, ddiana.olmedo@espoch.edu.ec
Resumen- El presente artículo reporta los resultados obtenidos del
análisis de la inuencia de los algoritmos de entrenamiento de redes
neuronales articiales (RNAs) en el error de predicción del nivel de
embalse de agua de una represa hidroeléctrica. Los algoritmos es-
tudiados son los contenidos en la librería Keras, la misma que usa
el back-end de TensorFlow. Los datos utilizados son los registros
históricos (2005-2016) del nivel de embalse, caudal y potencia acti-
va de una central hidroeléctrica en el Ecuador. Tales datos fueron
divididos en datos de entrenamiento, validación y pruebas. La pla-
taforma hardware fue una unidad de procesamiento gráco (GPU)
Nvidia 1050Ti, la misma que permitió explotar el cálculo altamente
paralelo de TensorFlow. Un total de 7 algoritmos fueron evaluados.
La prueba de Tukey reveló que el algoritmo Nadam obtuvo la me-
nor diferencia signicativa respecto al resto, comprobando que es
el más eciente. El modelo RNA de la planta, entrenado con el al-
goritmo Nadam, permitió lograr predicciones del nivel de embalse
de agua hasta un umbral de 48 horas. Los resultados alcanzados
favorecerán optimizar la planicación de producción energética en
una central hidroeléctrica a través de una predicción más precisa
de los recursos hídricos para cotas de producción deseadas.
Palabras Clave— Inteligencia Articial, Redes Neuronales, Pre-
dictor, Keras, Tensorow.
Abstract- The present paper reports on the obtained results from
the analysis of the inuence of training algorithms, for articial
neural networks (ANNs), on the prediction error of the reservoir
water level of a hydroelectric station. The studied algorithms are
those forming the Keras library, which uses the back-end of Ten-
sorFlow. Data for this study are the historical records (2005-2016)
of reservoir level, streamow, and active power from an Ecuado-
rian hydroelectric plant. Such data was divided for the training,
validation, and test stages. The hardware platform was a graphic
processing unit (GPU) Nvidia 1050Ti, which allowed for exploiting
the highly parallel computing capability of TensorFlow. Seven al-
gorithms were evaluated. The Tukey test revealed that the Nadam
algorithm obtained the lowest signicative difference respect to its
counterparts, engaging it as the more efcient. The respective ob-
tained RNA plant model reached effective prediction thresholds up
to 48 hours. The obtained results allow for optimization of the pla-
nication of energy production on the hydroelectric station trough
an accurate prediction of the hydric resources for quotas of desired
production.
Keywords— Articial Intelligence, Articial Neural Networks,
Predictor, Keras, Tensorow.
Fecha de Recepción: 06 - Nov - 2018 Fecha de Aceptación: 24 - Nov - 2018
I. INTRODUCCIÓN
La energía es fundamental para el crecimiento económico
y la sostenibilidad ambiental, y se ha descrito como “el hilo “
que une el crecimiento económico, la equidad social y la soste-
nibilidad ambiental. La producción y consumo de electricidad
de un país son indicadores básicos de su tamaño y nivel de de-
sarrollo. De acuerdo con cifras publicadas por el Banco Mun-
dial, en abril de 2017, 1060 millones de personas aún vivían sin
electricidad, lo que representó tan solo una leve mejora desde
2012. Según el mismo estudio, el mundo alcanzaría el 92 % de
electricación para el año 2030 [1].
Además, de acuerdo al Banco Mundial, el consumo de ener-
gía eléctrica por habitante (kWh per cápita) en el año 2014 se
ubicó en 3.126,3 kWh/hab a nivel mundial [1]. Por otro lado, en
el Ecuador, para el año 2016 este índice fue de 1.143,31 kWh/
hab con un consumo de 18.897,43 GWh, para una población
de 16`528.730 habitantes [2][3]. Como es posible notar, en el
Ecuador este índice, mismo que está muy relacionado con el
nivel de desarrollo de una sociedad o país, no representa ni la
mitad de la media mundial.
En este sentido, y de acuerdo a políticas de Estado refe-
rente a la eciencia energética,
y tomando en cuenta que la
proyección del
índice de población del país para el año 2020
sería de 17´512.663 habitantes [3], es imperativo la imple-
mentación de centrales hidroeléctricas que aseguren el abas-
tecimiento normal de energía eléctrica para la población. De
hecho, el Ecuador ha realizado fuertes inversiones económicas
en infraestructuras hidroeléctricas durante la última década
buscando alcanzar su autonomía energética, aunque con re-
sultados nada alentadores inuenciados por crisis políticas y
sociales [4], [5]. Sin embargo, actualmente el Ecuador aún se
encuentra ejecutando proyectos para la generación de energía
renovable, como son: Coca Codo Sinclair, Minas San Francis-
co, Delsitanisagua, Manduriacu, Masar Dudas, Toachi Pilatón,
Quijos, Sopladora y Villonaco [2].
Por otro lado, Ecuador cuenta con el Plan Maestro de Elec-
tricación (2013-2022), emitido por el Consejo Nacional de
17
ISSN - e: 2661 - 6688 Vol. 1 - Núm. 1 (Ene - Jun 2019)
Electricidad (CONELEC). El capítulo 1 de dicho plan, en refe-
rencia a los aspectos de sostenibilidad social y ambiental, indi-
ca; “La eciencia energética, basado en las políticas del Minis-
terio de Electricidad y Energía Renovables (MEER), trata sobre
el conjunto de acciones, en ejecución y planicadas, tendientes
a optimizar los recursos energéticos renovables y consumir la
menor cantidad posible de energía para realizar un proceso de-
terminado, sin disminuir las prestaciones o la calidad nal del
producto, y con el menor impacto sobre el medio ambiente” [6].
Es evidente que dicho maniesto sostiene que la optimización
de recursos energéticos en el país se convierte en una prioridad.
Entonces, un punto muy importante a considerar es la op-
timización en la producción de la energía en las centrales en
operación. Un primer caso de estudio utilizando RNAs es el
presentado en [7], donde los autores utilizaron el
algoritmo
de entrenamiento Broyden–Fletcher–Goldfarb–Shanno (BFGS)
para entrenar una Red Neuronal Articial (RNA) perceptrón
multicapa con el objeto de obtener un predictor de nivel de em-
balse de agua basado en dos RNAs: la primera utilizada en el
modelamiento dinámico de la presa, y la segunda para predecir
el caudal de ingreso. Las predicciones alcanzadas lograron un
umbral de 8h, sin embargo, el error del resultado nal del siste-
ma dependía de la combinación del error de estas dos RNAs[8].
El presente trabajo pretende estudiar la inuencia que tie-
nen los algoritmos de entrenamiento de RNAs mediante el aná-
lisis del error de predicción del nivel de embalse de agua de
una represa hidroeléctrica. El objetivo es determinar cuál de
los algoritmos de entrenamiento de RNAs implementados en la
librería open-source Keras presenta un mejor rendimiento para
este tipo de aplicaciones. La metodología empleada involucra
el modelamiento dinámico de una planta hidroeléctrica usando
RNAs, considerando que si se logra disminuir el error del mo-
delo también se disminuirá el error del predictor del nivel de
embalse de agua. De esta forma, se realiza una comparación
de los distintos algoritmos de entrenamiento de RNAs propor-
cionados por la librería Keras, utilizando el back-end de Ten-
sorFlow y una Unidad de Procesamiento Gráco (GPU). Esto
permitirá vericar la inuencia del algoritmo de entrenamiento
de RNAs durante el modelamiento dinámico de la presa, y por
consiguiente en el error de predicción de embalse de agua. Los
resultados alcanzados permitirán desarrollar una herramienta
que apoye las actividades de planicación de producción ener-
gética, optimizando el uso de recursos naturales en centrales
hidroeléctricas.
II. METODOLOGÍA
En la Fig. 1 se muestra el diagrama metodológico que per-
mitió el entrenamiento de RNAs, con el uso de los algoritmos de
entrenamiento de la librería Keras de Python©, con el objeto
de determinar cuál de estos presentaba un mejor desempeño en
base a el tiempo y error de entrenamiento, error de validación y
umbral de predicción del nivel de embalse de agua de una presa
hidroeléctrica.
A. Caso de Estudio.
En este caso de estudio, la información utilizada proviene
de la central Hidroeléctrica Agoyán, ubicada en la provincia de
Tungurahua a 180 Km al sureste de la ciudad de Quito y a 5 km
al este de la ciudad de Baños, en el sector denominado Agoyán
de la parroquia Ulba. Dicha central fue concebida para apro-
vechar el caudal del río Pastaza y cuenta con una producción
media anual de 1.010 GWh/año, una potencia efectiva y no-
minal de 156 MW y 160 MW, respectivamente, y un factor de
planta de 73,90 % [6].
Fig. 1. Fases de la metodología del presente estudio.
B. Preparación y Análisis de Datos.
La información utilizada corresponde a los datos de nivel,
caudal y potencia activa generada por la Hidroeléctrica Ago-
yán, comprendidos entre el año 2005 y 2016. Los datos fueron
adquiridos mediante un sistema SCADA (Supervisory Control
and Data Acquisition), y provienen de los sensores de nivel
de embalse de la presa y de caudal del río Pastaza. Los datos
fueron ltrados, validados y pre-procesados como se indica en
[7], antes de ser utilizados en este estudio.
Un análisis de los datos efectuado a la variable caudal, y repor-
tado en
[7], permitió identicar que los datos de caudal tienden
a repetirse cada año. Por tal motivo se denió el término de
“Temporadas Climáticas”, y se catalogaron 3 tipos tal como se
presenta en la Tabla I.
Tabla I.
TEMPORADAS CLIMÁTICAS
C. Descripción del Modelo Planta basado en RNA.
La conguración del modelo de la presa es un esquema
MISO (Multiple Input Single Output), es decir un sistema que
tiene varias entradas y salida única
[9]. Como ya se mencionó,
para el caso de estudio que se reporta, las entradas son: caudal,
nivel de embalse y potencia activa, mientras que como salida se
obtiene el nivel futuro del embalse de agua en una hora (N+1),
como se muestra en la Fig. 2. El modelo de una planta MISO
puede ser aproximada mediante un modelo de RNA llamado
Perceptrón Multicapa [10].
18
Vol. 1 - Núm. 1 (Ene - Jun 2019) ISSN - e: 2661 - 6688
Fig. 2. Diagrama del modelo de la presa en conguración de entrenamiento
CLP.
Para poder determinar el error de predicción del nivel de
embalse de agua en el futuro (N+1) durante el entrenamiento
se utilizó una conguración CLP (predicción a lazo cerrado)
según lo reportado en [11]. Además, el número de neuronas de
entrada y el número de capas ocultas de la RNA fueron determi-
nadas a partir del PSD (densidad espectral de potencia) de las
tres señales de entrada siguiendo los lineamientos establecidos
en [7], [12], [13].
En particular, la PSD muestra las frecuen-
cias a las cuales las señales de entrada son más fuertes, y de
esta manera se combina el número de neuronas. Para el caso
de estudio, se determinó 3 neuronas para la variable caudal, 2
neuronas para la variable nivel, y 2 neuronas para la potencia
activa, mientras que el número de capas ocultas de la RNA es
2. Por otro lado, la salida está compuesta de una sola neurona
que corresponde al nivel futuro de nivel de embalse, como se
muestra en la Fig. 3.
Fig. 3. Conguración de los datos de ingreso a la RNA para la predicción de
un valor futuro de nivel de embalse de agua (objetivo).
Como ya se estableció, la predicción del nivel futuro de
embalse de agua se realiza a lazo cerrado (CLP) utilizando los
mismos valores predichos del nivel de embalse. En este proce-
so es necesario la denición de un umbral de predicción (u),
el mismo que determinará el tamaño de la ventana de desliza-
miento de los datos de entrada, como se muestra en la Fig. 3.
D. Algoritmos de Entrenamiento.
Keras es una librería de acceso abierto escrita en Python,
en la cual se pueden realizar la creación de modelos de RNAs
para aplicaciones de Deep Learnig, utlizando backends como
TensorFlow, Theano o CNTK como se muestra en la Fig. 4 [14],
[15]. Los algoritmos de entrenamiento de RNAs que serán ana-
lizados se encuentran denidos en la librería Keras, los mismos
que detallan a continuación:
1. Descenso de Gradiente Estocástico SGD - es simple y bien
conocido, en general es un algoritmo de optimización muy ro-
busto, en el cual el gradiente de la función que se minimiza con
respecto a los parámetros calculados [16].
2. AdaGrad - es una adaptación del SGD que se enfoca en re-
ducir la velocidad de aprendizaje (gradiente) en zonas que han
cambiado signicativamente, y acelerarlo en las zonas que han
cambiado ligeramente [17].
3. Adadelta - es una extensión del algoritmo Adagrad, que bus-
ca reducir su agresividad, disminuyendo monótonamente la
tasa de aprendizaje [18], [19].
4. RMSprop - este algoritmo de aprendizaje es una alternati-
va del algoritmo Adagrad, enfocado en permitir que el modelo
continúe aprendiendo indenidamente [20].
5. Adam - combina el momento clásico con el algoritmo
RMSprop para obtener un mejor rendimiento, e incluye térmi-
nos de corrección del sesgo inicial [21].
6. Adamax - es una variante del algoritmo Adam basada en la
norma del innito [22].
7. Nadam - este algoritmo de aprendizaje es el resultado de la
combinación del algoritmo NAG con el Adam [23].
E. Implementación de la Plataforma.
La plataforma de software fue desarrollada en el lenguaje
de programación Python© versión 3.6. Para las interfases de
usuario se utilizó PyQt versión 5. PyQt5 es un método de la bi-
blioteca gráca Qt para el lenguaje de programación Python©.
Los datos fueron almacenados en el gestor de base de datos
PostgreSQL.
Para el entrenamiento de las RNAs utilizamos los algo-
ritmos de entrenamiento de la librería Keras de Python©, la
misma que es una biblioteca a nivel de modelo que proporciona
bloques de construcción de alto nivel para desarrollar modelos
de aprendizaje profundo. Se basa en una biblioteca de manipu-
lación de tensores especializada y bien optimizada, que actúa
como el “motor de back-end” de Keras. En lugar de elegir una
sola biblioteca de tensores y hacer que la implementación de
Keras esté ligada a esa biblioteca, Keras maneja el problema
de una manera modular, y varios motores back-end diferentes
pueden conectarse sin problemas a Keras [13].
De acuerdo a la Fig. 4, Keras tiene tres implementaciones
de back-end disponibles: TensorFlow, Theano y CNTK. Ade-
más, Keras puede funcionar sin problemas en tanto CPU o
GPU. Cuando se ejecuta en la CPU, TensorFlow utiliza una
biblioteca de bajo nivel para las operaciones de tensor llamada
Eigen. En GPU, TensorFlow utiliza la
biblioteca de operacio-
nes de aprendizaje profundo bien optimizadas llamada bibliote-
ca NVIDIA CUDA Deep Neural Network (cuDNN)[15].
19
ISSN - e: 2661 - 6688 Vol. 1 - Núm. 1 (Ene - Jun 2019)
Fig. 4. Estructura de la plataforma hardware-software sobre las que funciona
la librería Keras [15].
F. Entrenamiento de los Modelos.
Los valores de época, lote e iteraciones utilizados para el
entrenamiento de las RNAs son presentados en la Tabla II. Es
importante notar que para un primer acercamiento al entrena-
miento de los modelos de RNA se ha denido 5 interacciones,
las mismas que podrán ser ampliadas en función de los resul-
tados preliminares.
Tabla III.
PARÁMETROS DE ENTRENAMIENTO
Una vez entrenados los modelo de RNA, con los distintos al-
goritmos u optimizadores de la librería Keras de Python©, para
cada una de las estaciones climáticas. A través de un análisis
estadístico se puede analizar el comportamiento del error de
entrenamiento y error de validación en la predicción de nivel de
agua de embalse con cada uno de los modelos y de esta manera
poder reconocer cual algoritmo presenta un mejor rendimiento.
Con el n de determinar si existe un algoritmo de entre-
namiento que mantenga una diferencia signicativa respecto a
los demás algoritmos estudiados, y por lo tanto que presente el
mejor rendimiento, se plantea las siguientes hipótesis:
H
0
, Hipótesis nula: El promedio del error de entrenamiento (o
validación) es igual en los 7 algoritmos de entrenamiento, con
el 95% de conabilidad.
H
0
: μ
1
2
3
…μ
a
= μ
(1)
H
1
, Hipótesis alterna: Al menos en un algoritmo de entrena-
miento la media del error de entrenamiento (o validación) es
distinta, con el 95% de conabilidad.
H
1
:
no es cierto
H
0
(2)
III. RESULTADOS Y DISCUSIÓN
A. Comparación de Algoritmos.
La Fig. 5 muestra el comportamiento del error de entrena-
miento (EE) y error de validación (EV), en las tres temporadas
climáticas (T1: Invernal fuerte, T2: Invernal ligera y T3: Vera-
no), de cada uno de los algoritmos evaluados. Se observa que
la varianza tiende a cero (0) por lo que no es necesario rea-
lizar más iteraciones que las cinco propuestas. Es importante
mencionar que, a primera vista, que los algoritmos RMSprop,
Adam, Adamax y Nadam presentan resultados similares y son
mejores que los algoritmos SGD, Adagrad y Adadelta.
En la Fig.
6 se muestra el tiempo total de los entrenamientos
del modelo con los diferentes algoritmos para las tres tempora-
das climáticas en total. Como se puede apreciar, el algoritmo
Adagrap es el que menos tiempo empleó en el entrenamiento,
sin embargo, como ya se mencionó sus resultados de error de
entrenamiento y validación no son los mejores. Por otro lado,
el algoritmo SGD sigue mostrando su bajo rendimiento al em-
plear mucho más tiempo que los demás, mientras que la mayor
parte de algoritmos comparados emplean tiempo de entrena-
miento similares.
A pesar de que las comparaciones realizadas en este aparta-
do permitieron identicar de forma general cuales de los algo-
ritmos analizados presentaron un mejor o peor rendimiento en
los errores de predicción durante el entrenamiento y validación,
y tiempos de entrenamiento, todavía no está claro cuál de ellos
es el mejor de todos. Para ello, es necesario utilizar herramien-
tas estadísticas que permitan determinar si existen diferencias
signicativas entre los modelos obtenidos.
Fig. 5. Resultados de los errores de entrenamiento (EE) y error de validación (EV) de cada uno de los modelos de RNA entre-
nadas con los diferentes algoritmos estudiados para las tres temporadas climáticas (T1: Invernal fuerte, T2: Invernal ligera y
T3: Verano).
20
Vol. 1 - Núm. 1 (Ene - Jun 2019) ISSN - e: 2661 - 6688
Fig. 6. Tiempo total de entrenamientos de los diferentes algoritmos estudiados
de la librería Keras.
Dentro de las herramientas estadísticas utilizadas para la
comparación de dos o más elementos o variables esta: la eva-
luación de signicancia con t-tes, el análisis de varianza con
la prueba de Tukey, y la eciencia estadística. En este estudió
se utilizó las dos últimas técnicas,
debido a que la primera es
utilizada para la comparación de un grupo únicamente de dos
variables [24]. En el siguiente apartado, la prueba de Tukey es
utilizada con un nivel de conanza (n) del 95% para probar las
diferencias que existen entre las medias (μ) obtenidas de una
experiencia [25].
B. Evaluación de Diferencias Signicativas.
Como punto de partida, se realiza un análisis de la varianza
(ANOVA) sobre los errores de entrenamiento obtenidos sobre
el modelo de RNA con cada uno de los algoritmos analizados
en este artículo. En la Tabla III se presenta un resumen de los
datos de la media, varianza y el número de muestras de cada
uno de los algoritmos de entrenamiento. Es importante tener
en cuenta que cada muestra es el resultado de la media obte-
nida en cada entrenamiento por temporada. Además, la Tabla
IV presenta el resultado del análisis de la varianza aplicada al
error de entrenamiento, la misma que analiza las variaciones de
error presentes entre los grupos y dentro de los mismos grupos.
Tabla III.
ANÁLISIS ANOVA DEL ERROR DE ENTRENAMIENTO
Tabla IV.
ANÁLISIS DE LA VARIANZA PARA EL ERROR DE
ENTRENAMIENTO.
Debido a que el valor de la probabilidad (p) es menor que
el nivel de conanza (n=0.05): p < n, es decir 6,02E-44 <0.05,
entonces rechazamos la hipótesis nula H
0
y validamos la hipó-
tesis alterna H
1
. Esto signica que al menos en un algoritmo
de entrenamiento la media del error de entrenamiento (o vali-
dación) es distinta que las demás, con el 95% de conabilidad.
Este mismo análisis fue realizado para el conjunto de datos del
error de validación obteniendo que p < n, es decir 1.4024E-42
<0.05, se cumple con un 95% de conabilidad, resultado en el
rechazo de H
0
y validando la hipótesis alterna H
1
.
Con estos datos obtenidos del ANOVA, se procede a realizar
la prueba de Tukey para encontrar las diferencias signicativas
entre los algoritmos de entrenamiento. Para esto, fue necesario
calcular los factores HSD (diferencia honestamente signicati-
va, en español) como:
HSD=VC√(MSe/N)
(3)
donde:
VC: es el valor crítico (VC). De acuerdo con la Tabla caracte-
rística de Tukey [26], para los 98 grados de libertad este valor
es
VC=4.24
MSe=(Suma de Cuadrados)/(Grados de Libertad)=7.2621E-09
(4)
N: Número de elementos en los grupos, N=15.
Este análisis se realizó tanto para el error de entrenamien-
to, como para el error de validación, obteniendo una HSD de
9.32936E-05 y 9.2904E-05, respectivamente.
Los valores de HSD obtenidos son comparados con la media
(μ) de cada conjunto de datos correspondientes a los algoritmos
de entrenamiento y validación para determinar la relación que
existe entre cada uno de los algoritmos. Para llevar a cabo este
proceso, al valor de la media (μ
1
) de cada algoritmo se resta el
valor medio
2
) del algoritmo con el que
se desea comparar.
Si el valor de la resta es superior al HSD, entonces existe una
diferencia signicativa entre ambos algoritmos; y si este valor
es menor, entonces no existe diferencia:
HSD > μ
1
- u
2
; existe diferencia
HSD ≤ μ
1
- u
2
; No existe diferencia
Los valores HSD obtenidos para cada algoritmo de entrena-
miento, a partir de los errores de entrenamiento, son resumidos
en la Tabla V. La prueba de Tukey determinó que el algoritmo
Nadam tiene una mayor diferencia signicativa respecto a los
algoritmos SGD, Adagrad y Adadelta, y por lo tanto es mejor.
Por otro lado, el test de Tukey también indica que el algorit-
mo Nadam pero tiene menor diferencias signicativas con los
algoritmos RMSprop, Adam y Adamax, y por lo tanto son muy
similares. Sin embargo, la eciencia estadística determinó que
el algoritmo Nadam es el más eciente dado que la Var(Na-
dam) es menor que la Var(Adam) y Var(Adamax) según lo indi-
ca la Tabla III. Además, según estos mismos datos, el algoritmo
RMSprop resultaría más eciente estadísticamente hablando
dado que su Var(RMSprop) es aún menor, pero su tiempo de en-
21
ISSN - e: 2661 - 6688 Vol. 1 - Núm. 1 (Ene - Jun 2019)
trenamiento es mayor que el empleado por el algoritmo Nadam
(ver Fig. 6). Resultados similares se obtuvieron con el análisis
de los errores de validación para cada uno de los modelos de
presa entrenados con los diferentes algoritmos estudiados.
Tabla V.
COMPARATIVO DE LOS VALORES HSD OBTENIDOS DE LOS ERRORES
DE ENTRENAMIENTO DE CADA MODELO DE PRESA ENTRENADO CON
CADA ALGORITMO ANALIZADO.
*Color naranja: Existen diferencias signicativas.
*Color azul: No existen diferencias signicativas.
C. Validación de los modelos
Finalmente se procede a realizar la evaluación de los mo-
delos determinados como más y menos ecientes (precisos), en
el módulo de predicción del nivel de embalse de agua de la
plataforma desarrollada. Los modelos seleccionados para esta
validación son aquellos entrenados con los algoritmos Nadam
y SGD.
Los resultados son presentados en la Fig. 7 que analiza la
evolución del RMSE (root-mean-square error) del nivel de agua
de embalse de la presa. Cada temporada inicia con pruebas de
predicción con umbrales de 4 horas y termina con umbrales de
48 horas. De acuerdo con esto, se puede vericar y conrmar
lo analizado en el apartado anterior, en el cual se identica al
algoritmo Nadam como el más eciente, presentando menores
errores durante la fase de predicción del nivel embalse de agua
para todos los umbrales de prueba. Como se puede observar,
existe un rendimiento superior de este algoritmo en compara-
ción al algoritmo de entrenamiento SGD.
4
8
24
48
4
8
24
48
4
8
24
48
4
8
24
48
4
8
24
48
4
8
24
48
0
10
20
30
40
50
60
0
0,1
0,2
0,3
0,4
0,5
0,6
0,7
0,8
0,9
1
InvernalFuerte InvernalLigera Verano InvernalFuerte InvernalLigera Verano
SGD Nadam
UMBRAL
ERROR
AlgoritmosdeEntrenamiento
RMSEpromediodelModelodelaPresa
UmbralHoras RMSEPromedio MinRMSE MaxRMSE
IV. CONCLUSIONES
La evaluación del rendimiento de los algoritmos de entre-
namiento de RNAs de la herramienta Open Source Keras, en
función del tiempo de entrenamiento, error de entrenamiento
y error de validación en la predicción del nivel de embalse de
agua de la represa hidroeléctrica Agoyán, permitió identicar
que el tipo de algoritmo de entrenamiento si inuye en el error
de nivel de embalse de agua ya que se identicaron diferencias
signicativas entre el algoritmo Nadam y varios de los algo-
ritmos probados. En particular, se determinó que el algoritmo
SGD, es el menos eciente y el algoritmo Nadam es el más e-
ciente del grupo. No se identicaron diferencias signicativas
entre los algoritmos Nadam, Adam y Adamax, por lo cual se
utilizó la eciencia estadística para determinar cuál es más y
menos eciente. Se determinó que el algoritmo Nadan es el más
eciente de este subgrupo. Los resultados obtenidos en este es-
tudio permitirán anar las herramientas de predicción de em-
balse de agua en la central hidroeléctrica, la cual es reporta-
da en [7]. Esto favorecerá una planicación optimizada de la
producción energética de la planta al poder predecir hasta con
umbrales de 48 horas los recursos hídricos teniendo en cuenta
la producción deseada.
REFERENCIAS
[1]
BANCO MUNDIAL, “Energía @ www.bancomundial.
org.” 2017.
[2] L. Galarza and Tecpetrol, “Estadística Anual y Mul-
tianual del Sector Eléctrico Ecuatoriano,” p. 208, 2017.
[3] Instituto Nacional de Estadística y Censos, “Proyec-
ciones Poblacionales @ www.ecuadorencifras.gob.ec.” 2017.
[4] REN21, “Renewables 2017: Global Status Report,”
Paris, 2017.
Fig. 7. Evaluación de los algoritmos Nadam vs SGD.
22
Vol. 1 - Núm. 1 (Ene - Jun 2019) ISSN - e: 2661 - 6688
[5] C. A. Villacís Laínez, Y. F. Suarez Nuñez, and X. M.
Güillín Llanos, “Análisis de la Responsabilidad Social en el
Ecuador,” Rev. Publicando, vol. 3, no. 8, pp. 452–466, 2016.
[6] Consejo Nacional de Electricidad, “Plan Maestro de
Electricación 2013-2022,” Plan Maest. Electrif. 2013-2022,
vol. 1, p. 116, 2013.
[7] J. Hernández-Ambato, G. Asqui-Santillán, A. Arella-
no, and C. Cunalata, “Multistep-ahead Streamow and Re-
servoir Level Prediction Using ANNs for Production Planning
in Hydroelectric Stations,” in 2017 16th IEEE International
Conference on Machine Learning and Applications, 2017, pp.
479–484.
[8] G. E. Asqui Santillán, “Predicción del nivel de agua
del embalse, basado en redes neuronales, para la mejora de la
planicación de producción de energía en la Central Hidroeléc-
trica Agoyán.,” 2017.
[9] J. R. Azagra, “Control robusto cuantitativo de siste-
mas con múltiples entradas de actuación y una salida objeto de
control,” 2017.
[10] P. Isasi Viñuela and I. M. Galván León, Redes de Neu-
ronas Articiales: Un Enfoque Práctico. Pearson Educación,
2004.
[11] G. Asqui Santillán, D. Olmedo Vizueta, and J. Hernán-
dez Ambato, “Modelamiento basado en Redes Neuronales Arti-
ciales para la Predicción de Recursos Hídricos en una Central
Hidroeléctrica,” in V Congreso Internacional de la Ciencia,
Tecnología, Emprendimiento E Innovación, 2018, pp. 532–545.
[12] J. M. Zaldívar, E. Gutiérrez, I. M. Galván, F. Strozzi,
and A. Tomasin, “Forecasting high waters at Venice Lagoon
using chaotic time series analysis and nonlinear neural networ-
ks,” J. Hydroinformatics, vol. 2, no. 1, pp. 61–84, 2000.
[13] J. L. Correa-Figueroa, E. Morales-Sánchez, J. A.
Huerta-Ruelas, J. J. González-Barbosa, and C. R. Cárde-
nas-Pérez, “Sistema de adquisición de señales SEMG para la
detección de fatiga muscular,” Rev. Mex. Ing. Biomed., vol. 37,
no. 1, pp. 17–27, 2016.
[14] F. Chollet, “Optimizers - Keras Documentation,”
2015.
[15] F. Chollet, Deep Learning with Python, vol. 80, no. 1.
2007.
[16] T. Dozat, “Incorporating Nesterov Momentum into
Adam,” ICLR Work., no. 1, pp. 2013–2016, 2016.
[17] A. T. Hadgu, A. Nigam, and E. Diaz-Aviles, “Lar-
ge-scale learning with AdaGrad on Spark,” in Big Data (Big
Data), 2015 IEEE International Conference on, 2015, pp.
2828–2830.
[18] S. Ruder, “An overview of gradient descent optimiza-
tion algorithms,” pp. 1–14, 2016.
[19] M. D. Zeiler, “ADADELTA: An Adaptive Learning
Rate Method,” 2012.
[20] M. C. Mukkamala and M. Hein, “Variants of RMSProp
and Adagrad with Logarithmic Regret Bounds,” CoRR, vol.
abs/1706.05507, 2017.
[21] D. P. Kingma and J. Ba, “Adam: A Method for Sto-
chastic Optimization,” CoRR, vol. abs/1412.6, 2014.
[22] X. Zeng, Z. Zhang, and D. Wang, “AdaMax Online
Training for Speech Recognition,” 2016.
[23] S. J. Reddi, S. Kale, and S. Kumar, “On the Conver-
gence of Adam and Beyond,” in ICLR 2018, 2018, pp. 1–23.
[24] E. Morales and J. González, “Aprendizaje Computa-
cional,” Inst. Nac. Astrofísica, Óptica y Electrónica, pp. 1–232,
2011.
[25] B. Cecila, “Facultad de Ciencias Forestales,” 2002.
[26] J. A. Villalpando-García, A. Castillo-Morales, M. E.
Ramírez-Guzmán, G. Rendón-Sánchez, and U. Larqué-Saave-
dra, Mario, “COMPARACIÓN DE LOS PROCEDIMIENTOS
DE TUKEY, DUNCAN, DUNNETT, HSU Y BECHHOFER
PARA SELECCIÓN DE MEDIAS,” Agrociencia, vol. 35, no. 1,
pp. 79–86, 2001.