Notes

  • Retomamos el proyecto

  • En primer lugar, debemos genera un análisis de un año de datos

  • Para ello debemos recordar cuál era el pipeline que desarrollamos el año pasado, el cual incluía estos pasos:

    • Desde el log se realiza un split por ciclos (up + down) y se reemplazan las comas por puntos
  • Periodo de análisis: 25-10-2024 al 31-10-2024

    • En la gráfica de conteo de datos por columna notar que existen varios clusters donde faltan datos, consultar acerca de esto a Omar, principalmente por la zona centrada en marzo y la zona entre julio y agosto
      • Omar sospecha que la falta de datos de marzo se debe al cambio de acceso point donde se tuvo que reiniciar la estación varias veces.
    • Podemos reportar 2 gráficas: cantidad de datos disponibles respecto a la fecha, e histograma para dar cuenta de que la cantidad de fechas donde se dispone con los 9 valores es considerablemente mayor que el resto de situaciones donde faltan datos.
  • Idea para operativización: el modelo (a single script) recibe como input el log de las celdas y un rango de fechas (periodo de análisis), luego, se ejecutan stripFromTo.sh y splitCycles.sh, esto prepara un directorio con un archivo de texto correspodiente a cada ciclo (2 barridos). Luego estos archivos son leidos por code3.2.ipynb donde se calculan los parámetros fotovoltáicos de ambas celdas y se acoplan, en un pkl, a los parámetros meteorológicos de aws_UV (datetime-index)