Notes
Retomamos el proyecto
En primer lugar, debemos genera un análisis de un año de datos
Para ello debemos recordar cuál era el pipeline que desarrollamos el año pasado, el cual incluía estos pasos:
- Desde el
logse realiza un split por ciclos (up + down) y se reemplazan las comas por puntos
- Desde el
Periodo de análisis: 25-10-2024 al 31-10-2024
- En la gráfica de conteo de datos por columna notar que existen varios clusters donde faltan datos, consultar acerca de esto a Omar, principalmente por la zona centrada en marzo y la zona entre julio y agosto
- Omar sospecha que la falta de datos de marzo se debe al cambio de acceso point donde se tuvo que reiniciar la estación varias veces.
- Podemos reportar 2 gráficas: cantidad de datos disponibles respecto a la fecha, e histograma para dar cuenta de que la cantidad de fechas donde se dispone con los 9 valores es considerablemente mayor que el resto de situaciones donde faltan datos.
- En la gráfica de conteo de datos por columna notar que existen varios clusters donde faltan datos, consultar acerca de esto a Omar, principalmente por la zona centrada en marzo y la zona entre julio y agosto
Idea para operativización: el modelo (a single script) recibe como input el
logde las celdas y un rango de fechas (periodo de análisis), luego, se ejecutanstripFromTo.shysplitCycles.sh, esto prepara un directorio con un archivo de texto correspodiente a cada ciclo (2 barridos). Luego estos archivos son leidos por code3.2.ipynb donde se calculan los parámetros fotovoltáicos de ambas celdas y se acoplan, en un pkl, a los parámetros meteorológicos de aws_UV (datetime-index)
