Foto para Ingeniería UAI se adjudica 10 Fondecyt de Iniciación

Ingeniería UAI se adjudica 10 Fondecyt de Iniciación

El resultado consolida del crecimiento de la Facultad en investigación desde los últimos años.

7 de enero de 2022

La Universidad Adolfo Ibáñez se adjudicó 22 proyectos en el concurso Fondecyt de Iniciación 2022, situándose en el 5° lugar a nivel nacional y primera entre las privadas en cantidad de proyectos aceptados. De estos, un 45,4% pertenece a la Facultad de Ingeniería y Ciencias (10), unidad que tuvo una tasa de aprobación del 55% de los proyectos presentados.

Estos resultados son reflejo de la gran calidad de nuestro joven cuerpo académico, quienes recibieron también un dedicado apoyo por parte de nuestra Dirección de Investigación e Innovación FIC, coordinando virtuosamente con la Dirección de Investigación de la VRA. Es una gran noticia para un concurso cada vez más competitivo”, destacó el decano de la FIC Carlos Jerez.

Las propuestas aprobadas son proyectos postulados en 2021 y que comenzarán en marzo de 2022, en temas como Machine Learning, Data Science, cambio climático, electricidad, astronomía, entre otros. Los 10 proyectos adjudicados por académicos e investigadores FIC son un récord histórico para la Facultad y evidencian un crecimiento sostenido y potente. En 2021, el número de proyectos adjudicados fue de 9; en 2020, 5; en 2019, 1; y en 2018, 1.

Este año, los proyectos adjudicados son:

  • “Smart constraints definition using machine learning for robust pricing optimization in retail”, de Luis Alberto Aburto.
  • “Spectrum allocation in Band Division Multiplexing - Elastic Optical Networks”, de Danilo Borquez.
  • “Assessing the Performance of Downscaling Methods and its Application in Detecting the Local Time of Emergence”, de Cristián Chadwick.
  • “Integrated phosphorus and nitrogen recovery from source-separated urine”, de Dafne Crutchik.
  • Kernelised linear tests: combining Statistics and Machine learning to boost test power”, de Tamara Fernández.
  • “The role of hydrogen for heat decarbonisation and air pollution reduction in urban energy systems in Chile”, de Francisca Jalil.
  • “Impact of Electrical Conductivity on the Performance of Direct Air Capture Contactors”, de Felipe Larraín.
  • “The Grand Architectures of Planetary Systems”, de Gijs Mulders.
  • “Decentralized formation control of multi-agent systems with applications to platooning under unreliable communications”, de Andrés Peters.
  • “A recursive framework for exploring large graphs”, de Adrián Soto.

Los proyectos

“Smart constraints definition using machine learning for robust pricing optimization in retail”; Luis Alberto Aburto.

“El proyecto se trata de construir modelos de machine learning para aprender y predecir dónde están los clientes más sensibles a descuentos y promociones para una cadena de supermercados o retail en general. Esta información es muy útil para los retailers ya que pueden resolver de mejor forma los problemas de optimización de precios y saber dónde y cuántos descuentos deben colocar para mejorar sus resultados y la relación con sus clientes. Este proyecto toma mayor relevancia como herramientas de inteligencia para los grandes actores nacionales, y así competir de mejor forma en los distintos mercados de Latinoamérica donde se encuentran”.

“Spectrum allocation in Band Division Multiplexing - Elastic Optical Networks”; Danilo Borquez.

El crecimiento del tráfico utilizado para provisionar internet, entre otras cosas, más la llegada del 5G, y el consecuente desarrollo de 6G, enfrentan el problema de, a pesar que son tecnologías de tipo Wireless (sin cables, por aires), la información de todas formas es enviada a través de los troncales que utilizan fibra. “La capacidad de los enlaces de fibra no es ilimitada. Desde hace algunos años que existe acuñado el concepto de “Capacity Crunch”, que tiene relación precisamente con cómo estamos llegando al límite de información que podemos enviar por nuestros enlaces de fibra”, explica el académico.

“Con este proyecto, se pretende abordar el problema de la asignación de recursos en redes ópticas utilizando Band Division Multiplexing BDM / Spatial Division Multiplexing SDM, de tal manera que las conexiones efectivamente realizadas sean lo más eficientes posible. Esto se logra generando estrategias que prioricen ciertas características de las conexiones por sobre otras.  Por lo tanto, se propondrán heurísticas y modelos de programación lineal entera que permitan una asignación eficiente del espectro. También se busca generar herramientas de software que apoyen la investigación en redes ópticas, como bibliotecas de simulación y bibliotecas de Reinforcement Learning”, agrega Borquez.

“Assessing the Performance of Downscaling Methods and its Application in Detecting the Local Time of Emergence”; Cristián Chadwick.

“Lo que busca estudiar el proyecto es entender mejor cómo se puede pasar de la escala global a la local en la simulación del cambio climático, para luego detectar cuándo el cambio climático generará modificaciones en el clima que serán significativas. En particular, interesa entender cuándo los cambios en el clima serán significativos no solo en términos estadísticos, sino de sus impactos”.

“Integrated phosphorus and nitrogen recovery from source-separated urine”; Dafne Crutchik.

La académica explica que el contexto del proyecto se fundamenta en que el nitrógeno y el fósforo son nutrientes esenciales para todos los seres vivos, y especialmente importantes para la fabricación de fertilizantes. “Sin embargo, luego de que los alimentos son consumidos, la mayor parte de estos nutrientes acaban en las plantas de tratamiento de aguas residuales. La orina es la principal fuente de nutrientes en las aguas residuales municipales, la cual aporta aproximadamente el 85% de nitrógeno y 50% de fósforo presentes en esta corriente”, explica Crutchik.

La investigadora agrega que usualmente, estos elementos son eliminados de esta corriente líquida para cumplir con la normativa vigente, perdiéndose valiosos recursos, además de conllevar un alto consumo energético y de reactivos químicos dado los grandes volúmenes de aguas residuales que se deben tratar. “En este sentido, un enfoque es separar la orina en el origen para una eficiente recuperación de fósforo y nitrógeno. Así, si estos nutrientes presentes en la orina humana fuesen recuperados sería posible reemplazar cerca del 19% y 20% del nitrógeno y fósforo que se utilizan en la fabricación de fertilizantes sintéticos, respectivamente”. La novedad radica en que la mayor parte de las soluciones actuales para la recuperación de estos nutrientes se aplican de forma separada y en este proyecto se busca implementar la recuperación de ambos nutrientes en un sistema de bajo costo.

“Kernelised linear tests: combining Statistics and Machine learning to boost test power”; Tamara Fernández.

“El proyecto tiene como fin el estudio y desarrollo de nuevos métodos de prueba de hipótesis, que son importantes herramientas de estadística inferencial que nos permiten responder preguntas sobre la población en base a una muestra. Por ejemplo, podemos responder si un tratamiento médico en específico tiene un efecto positivo en los tiempos de recuperación de determinados pacientes, entre otras preguntas. Sin embargo, muchos métodos de prueba de hipótesis fallan debido a que en su desarrollo es común que se establezcan supuestos, muchas veces erróneos, acerca del mecanismo que genera los datos. Estos supuestos están generalmente codificados en asumir que un modelo en específico genera los datos”, señala Tamara.

La investigadora añade que el proyecto propone la utilización de técnicas de Machine Learning para sortear esta dificultad. “Dado un cierto tipo de estadístico de prueba (que nosotros denominamos de tipo lineal), el proyecto propone la generalización del método de prueba de hipótesis basado en este estadístico, al permitir que se miren muchos (posiblemente infinitos) modelos al mismo tiempo. A este procedimiento lo llamamos la 'kernelizacion' de un estadístico lineal (que motiva nuestro título)”, indica la académica. El proyecto plantea el estudio y la formalización matemática de este procedimiento con el objetivo de crear una teoría general que pueda ser aplicada a muchos problemas diferentes, así como también propone el estudio de aspectos computacionales relacionados con la implementación de los métodos desarrollados, incluyendo el desarrollo de software.

“The role of hydrogen for heat decarbonisation and air pollution reduction in urban energy systems in Chile”; Francisca Jalil.

En el contexto del cambio climático -uno de los grandes desafíos a los que se enfrentan diversas regiones globalmente- Chile ha establecido su compromiso de llegar a la carbono neutralidad al 2050, y de reducir durante la próxima década, sus emisiones de carbono negro en un 25% con respecto a los niveles de 2016. “Las demandas térmicas son unos de los servicios energéticos más urgentes y complejos de descarbonizar a nivel global, ya que se requieren cambios profundos en la infraestructura para alejarse de su provisión histórica mediante combustibles fósiles”, explica Jalil.

El objetivo de este proyecto es desarrollar modelos y aplicarlos en casos de estudio en Chile para encontrar, por una parte, la configuración óptima de cadenas de suministro de hidrógeno verde y sus impactos ambientales y costos asociados; y por otra, entender el rol del hidrógeno en la descarbonización y descontaminación de las demandas térmicas en sistemas urbanos en el país, para una serie de escenarios.

“Impact of Electrical Conductivity on the Performance of Direct Air Capture Contactors”; Felipe Larraín.

“El proyecto se enmarca en la captura de CO2 desde el aire para contener el cambio climático. Específicamente, busca determinar el impacto de modificar las propiedades eléctricas de los materiales que componen los contactores de aire que realizan la captura, con el objetivo de maximizar su rendimiento”, cuenta Felipe Larraín.

El académico explica que el principal aporte del proyecto es “desarrollar contactores de aire muy eficientes en capturar CO2, contribuyendo a contener el cambio climático. Sin embargo, esta tecnología podría habilitar nuevas cadenas de valor en el mediano y largo plazo. Por ejemplo, combinando hidrógeno verde con CO2 capturado desde la atmósfera, la humanidad podría sintetizar plásticos cero emisiones, combustibles limpios (etanol, metano, butano, etc), fertilizantes para procesos agrícolas, etc. Hacer esto contribuirá a que Chile participe de la economía del conocimiento”.

 “The Grand Architectures of Planetary Systems”; Gijs Mulders.

“El proyecto busca explicar por qué observamos diferentes tipos de exoplanetas alrededor de diferentes tipos de estrellas. Las estrellas como el sol a menudo tienen un sistema planetario con una ‘gran arquitectura’, donde un planeta gigante frío se encuentra lejos de la estrella y una súper tierra caliente se encuentra más cerca de la estrella. Las estrellas de menor masa que el Sol parecen tener una arquitectura orbital diferente con más supertierras cerca, pero menos planetas gigantes más alejados”, explica el investigador Gijs Mulders.

Los principales objetivos de este programa de investigación son restringir las arquitecturas orbitales de los sistemas exoplanetarios mediante la combinación de datos de diferentes encuestas de exoplanetas, como el Transiting Exoplanet Survey Satellite; y explicar las ‘grandes arquitecturas’ observadas de los sistemas planetarios utilizando modelos de formación de planetas y comprender los orígenes de la dependencia de la masa de la estrella.

“Decentralized formation control of multi-agent systems with applications to platooning under unreliable communications”; Andrés Peters.

“El proyecto estudia teórica y experimentalmente fenómenos de escalabilidad en el control de sistemas multi-agentes cuando existen problemas en la comunicación (inalámbrica) entre los agentes. Una aplicación de este tipo de situaciones corresponde al futuro de las ‘autopistas inteligentes’, donde varios vehículos autónomos viajarán formando un pelotón a una velocidad crucero, lo que permitiría tener seguridad y optimización en el uso de combustible, todo esto a través de lograr formaciones compactas a lo largo de la autopista con el uso de sensores y comunicación inalámbrica.

En particular, buscamos obtener condiciones de diseño que aseguren robustez en el desempeño de estos sistemas interconectados cuando ocurren fallas en la comunicación inalámbrica que permite la colaboración entre ellos. En aplicaciones, este tipo de resultados permite a los ingenieros tener mayor certeza al diseñar sistemas interconectados reales, que busquen optimizar el uso de recursos escasos como las autopistas y los combustibles”.

“A recursive framework for exploring large graphs”; Adrián Soto.

El académico explica que el proyecto busca estudiar técnicas para poder sacar información valiosa de grafos de gran escala. Por ejemplo, los datos desde una red social, como el nombre de los usuarios, su edad, las interacciones entre usuarios, entre otros. Esta es información explícita. “Ahora, si preguntamos por cosas como ‘el usuario más importante’ o los distintos clusters de usuarios, eso no está guardado explícito, y hay que computarlo con algoritmos que pueden tardarse harto tiempo. Estas tareas que buscan sacar información que no es explícita son las tareas de Graph Analytics (o análisis de redes en español)”.

En esa línea, el proyecto busca analizar cuál es la forma más eficiente para que un sistema bases de datos de grafos pueda computar algoritmos de graph analytics sobre los datos que guarda; si es posible mejorar el desempeño de los algoritmos usando representaciones de grafos basadas en el álgebra lineal; y cómo se podrían integrar elementos de inteligencia artificial para acelerar estos algoritmos.

7 de enero de 2022

La Universidad Adolfo Ibáñez se adjudicó 22 proyectos en el concurso Fondecyt de Iniciación 2022, situándose en el 5° lugar a nivel nacional y primera entre las privadas en cantidad de proyectos aceptados. De estos, un 45,4% pertenece a la Facultad de Ingeniería y Ciencias (10), unidad que tuvo una tasa de aprobación del 55% de los proyectos presentados.

Estos resultados son reflejo de la gran calidad de nuestro joven cuerpo académico, quienes recibieron también un dedicado apoyo por parte de nuestra Dirección de Investigación e Innovación FIC, coordinando virtuosamente con la Dirección de Investigación de la VRA. Es una gran noticia para un concurso cada vez más competitivo”, destacó el decano de la FIC Carlos Jerez.

Las propuestas aprobadas son proyectos postulados en 2021 y que comenzarán en marzo de 2022, en temas como Machine Learning, Data Science, cambio climático, electricidad, astronomía, entre otros. Los 10 proyectos adjudicados por académicos e investigadores FIC son un récord histórico para la Facultad y evidencian un crecimiento sostenido y potente. En 2021, el número de proyectos adjudicados fue de 9; en 2020, 5; en 2019, 1; y en 2018, 1.

Este año, los proyectos adjudicados son:

  • “Smart constraints definition using machine learning for robust pricing optimization in retail”, de Luis Alberto Aburto.
  • “Spectrum allocation in Band Division Multiplexing - Elastic Optical Networks”, de Danilo Borquez.
  • “Assessing the Performance of Downscaling Methods and its Application in Detecting the Local Time of Emergence”, de Cristián Chadwick.
  • “Integrated phosphorus and nitrogen recovery from source-separated urine”, de Dafne Crutchik.
  • Kernelised linear tests: combining Statistics and Machine learning to boost test power”, de Tamara Fernández.
  • “The role of hydrogen for heat decarbonisation and air pollution reduction in urban energy systems in Chile”, de Francisca Jalil.
  • “Impact of Electrical Conductivity on the Performance of Direct Air Capture Contactors”, de Felipe Larraín.
  • “The Grand Architectures of Planetary Systems”, de Gijs Mulders.
  • “Decentralized formation control of multi-agent systems with applications to platooning under unreliable communications”, de Andrés Peters.
  • “A recursive framework for exploring large graphs”, de Adrián Soto.

Los proyectos

“Smart constraints definition using machine learning for robust pricing optimization in retail”; Luis Alberto Aburto.

“El proyecto se trata de construir modelos de machine learning para aprender y predecir dónde están los clientes más sensibles a descuentos y promociones para una cadena de supermercados o retail en general. Esta información es muy útil para los retailers ya que pueden resolver de mejor forma los problemas de optimización de precios y saber dónde y cuántos descuentos deben colocar para mejorar sus resultados y la relación con sus clientes. Este proyecto toma mayor relevancia como herramientas de inteligencia para los grandes actores nacionales, y así competir de mejor forma en los distintos mercados de Latinoamérica donde se encuentran”.

“Spectrum allocation in Band Division Multiplexing - Elastic Optical Networks”; Danilo Borquez.

El crecimiento del tráfico utilizado para provisionar internet, entre otras cosas, más la llegada del 5G, y el consecuente desarrollo de 6G, enfrentan el problema de, a pesar que son tecnologías de tipo Wireless (sin cables, por aires), la información de todas formas es enviada a través de los troncales que utilizan fibra. “La capacidad de los enlaces de fibra no es ilimitada. Desde hace algunos años que existe acuñado el concepto de “Capacity Crunch”, que tiene relación precisamente con cómo estamos llegando al límite de información que podemos enviar por nuestros enlaces de fibra”, explica el académico.

“Con este proyecto, se pretende abordar el problema de la asignación de recursos en redes ópticas utilizando Band Division Multiplexing BDM / Spatial Division Multiplexing SDM, de tal manera que las conexiones efectivamente realizadas sean lo más eficientes posible. Esto se logra generando estrategias que prioricen ciertas características de las conexiones por sobre otras.  Por lo tanto, se propondrán heurísticas y modelos de programación lineal entera que permitan una asignación eficiente del espectro. También se busca generar herramientas de software que apoyen la investigación en redes ópticas, como bibliotecas de simulación y bibliotecas de Reinforcement Learning”, agrega Borquez.

“Assessing the Performance of Downscaling Methods and its Application in Detecting the Local Time of Emergence”; Cristián Chadwick.

“Lo que busca estudiar el proyecto es entender mejor cómo se puede pasar de la escala global a la local en la simulación del cambio climático, para luego detectar cuándo el cambio climático generará modificaciones en el clima que serán significativas. En particular, interesa entender cuándo los cambios en el clima serán significativos no solo en términos estadísticos, sino de sus impactos”.

“Integrated phosphorus and nitrogen recovery from source-separated urine”; Dafne Crutchik.

La académica explica que el contexto del proyecto se fundamenta en que el nitrógeno y el fósforo son nutrientes esenciales para todos los seres vivos, y especialmente importantes para la fabricación de fertilizantes. “Sin embargo, luego de que los alimentos son consumidos, la mayor parte de estos nutrientes acaban en las plantas de tratamiento de aguas residuales. La orina es la principal fuente de nutrientes en las aguas residuales municipales, la cual aporta aproximadamente el 85% de nitrógeno y 50% de fósforo presentes en esta corriente”, explica Crutchik.

La investigadora agrega que usualmente, estos elementos son eliminados de esta corriente líquida para cumplir con la normativa vigente, perdiéndose valiosos recursos, además de conllevar un alto consumo energético y de reactivos químicos dado los grandes volúmenes de aguas residuales que se deben tratar. “En este sentido, un enfoque es separar la orina en el origen para una eficiente recuperación de fósforo y nitrógeno. Así, si estos nutrientes presentes en la orina humana fuesen recuperados sería posible reemplazar cerca del 19% y 20% del nitrógeno y fósforo que se utilizan en la fabricación de fertilizantes sintéticos, respectivamente”. La novedad radica en que la mayor parte de las soluciones actuales para la recuperación de estos nutrientes se aplican de forma separada y en este proyecto se busca implementar la recuperación de ambos nutrientes en un sistema de bajo costo.

“Kernelised linear tests: combining Statistics and Machine learning to boost test power”; Tamara Fernández.

“El proyecto tiene como fin el estudio y desarrollo de nuevos métodos de prueba de hipótesis, que son importantes herramientas de estadística inferencial que nos permiten responder preguntas sobre la población en base a una muestra. Por ejemplo, podemos responder si un tratamiento médico en específico tiene un efecto positivo en los tiempos de recuperación de determinados pacientes, entre otras preguntas. Sin embargo, muchos métodos de prueba de hipótesis fallan debido a que en su desarrollo es común que se establezcan supuestos, muchas veces erróneos, acerca del mecanismo que genera los datos. Estos supuestos están generalmente codificados en asumir que un modelo en específico genera los datos”, señala Tamara.

La investigadora añade que el proyecto propone la utilización de técnicas de Machine Learning para sortear esta dificultad. “Dado un cierto tipo de estadístico de prueba (que nosotros denominamos de tipo lineal), el proyecto propone la generalización del método de prueba de hipótesis basado en este estadístico, al permitir que se miren muchos (posiblemente infinitos) modelos al mismo tiempo. A este procedimiento lo llamamos la 'kernelizacion' de un estadístico lineal (que motiva nuestro título)”, indica la académica. El proyecto plantea el estudio y la formalización matemática de este procedimiento con el objetivo de crear una teoría general que pueda ser aplicada a muchos problemas diferentes, así como también propone el estudio de aspectos computacionales relacionados con la implementación de los métodos desarrollados, incluyendo el desarrollo de software.

“The role of hydrogen for heat decarbonisation and air pollution reduction in urban energy systems in Chile”; Francisca Jalil.

En el contexto del cambio climático -uno de los grandes desafíos a los que se enfrentan diversas regiones globalmente- Chile ha establecido su compromiso de llegar a la carbono neutralidad al 2050, y de reducir durante la próxima década, sus emisiones de carbono negro en un 25% con respecto a los niveles de 2016. “Las demandas térmicas son unos de los servicios energéticos más urgentes y complejos de descarbonizar a nivel global, ya que se requieren cambios profundos en la infraestructura para alejarse de su provisión histórica mediante combustibles fósiles”, explica Jalil.

El objetivo de este proyecto es desarrollar modelos y aplicarlos en casos de estudio en Chile para encontrar, por una parte, la configuración óptima de cadenas de suministro de hidrógeno verde y sus impactos ambientales y costos asociados; y por otra, entender el rol del hidrógeno en la descarbonización y descontaminación de las demandas térmicas en sistemas urbanos en el país, para una serie de escenarios.

“Impact of Electrical Conductivity on the Performance of Direct Air Capture Contactors”; Felipe Larraín.

“El proyecto se enmarca en la captura de CO2 desde el aire para contener el cambio climático. Específicamente, busca determinar el impacto de modificar las propiedades eléctricas de los materiales que componen los contactores de aire que realizan la captura, con el objetivo de maximizar su rendimiento”, cuenta Felipe Larraín.

El académico explica que el principal aporte del proyecto es “desarrollar contactores de aire muy eficientes en capturar CO2, contribuyendo a contener el cambio climático. Sin embargo, esta tecnología podría habilitar nuevas cadenas de valor en el mediano y largo plazo. Por ejemplo, combinando hidrógeno verde con CO2 capturado desde la atmósfera, la humanidad podría sintetizar plásticos cero emisiones, combustibles limpios (etanol, metano, butano, etc), fertilizantes para procesos agrícolas, etc. Hacer esto contribuirá a que Chile participe de la economía del conocimiento”.

 “The Grand Architectures of Planetary Systems”; Gijs Mulders.

“El proyecto busca explicar por qué observamos diferentes tipos de exoplanetas alrededor de diferentes tipos de estrellas. Las estrellas como el sol a menudo tienen un sistema planetario con una ‘gran arquitectura’, donde un planeta gigante frío se encuentra lejos de la estrella y una súper tierra caliente se encuentra más cerca de la estrella. Las estrellas de menor masa que el Sol parecen tener una arquitectura orbital diferente con más supertierras cerca, pero menos planetas gigantes más alejados”, explica el investigador Gijs Mulders.

Los principales objetivos de este programa de investigación son restringir las arquitecturas orbitales de los sistemas exoplanetarios mediante la combinación de datos de diferentes encuestas de exoplanetas, como el Transiting Exoplanet Survey Satellite; y explicar las ‘grandes arquitecturas’ observadas de los sistemas planetarios utilizando modelos de formación de planetas y comprender los orígenes de la dependencia de la masa de la estrella.

“Decentralized formation control of multi-agent systems with applications to platooning under unreliable communications”; Andrés Peters.

“El proyecto estudia teórica y experimentalmente fenómenos de escalabilidad en el control de sistemas multi-agentes cuando existen problemas en la comunicación (inalámbrica) entre los agentes. Una aplicación de este tipo de situaciones corresponde al futuro de las ‘autopistas inteligentes’, donde varios vehículos autónomos viajarán formando un pelotón a una velocidad crucero, lo que permitiría tener seguridad y optimización en el uso de combustible, todo esto a través de lograr formaciones compactas a lo largo de la autopista con el uso de sensores y comunicación inalámbrica.

En particular, buscamos obtener condiciones de diseño que aseguren robustez en el desempeño de estos sistemas interconectados cuando ocurren fallas en la comunicación inalámbrica que permite la colaboración entre ellos. En aplicaciones, este tipo de resultados permite a los ingenieros tener mayor certeza al diseñar sistemas interconectados reales, que busquen optimizar el uso de recursos escasos como las autopistas y los combustibles”.

“A recursive framework for exploring large graphs”; Adrián Soto.

El académico explica que el proyecto busca estudiar técnicas para poder sacar información valiosa de grafos de gran escala. Por ejemplo, los datos desde una red social, como el nombre de los usuarios, su edad, las interacciones entre usuarios, entre otros. Esta es información explícita. “Ahora, si preguntamos por cosas como ‘el usuario más importante’ o los distintos clusters de usuarios, eso no está guardado explícito, y hay que computarlo con algoritmos que pueden tardarse harto tiempo. Estas tareas que buscan sacar información que no es explícita son las tareas de Graph Analytics (o análisis de redes en español)”.

En esa línea, el proyecto busca analizar cuál es la forma más eficiente para que un sistema bases de datos de grafos pueda computar algoritmos de graph analytics sobre los datos que guarda; si es posible mejorar el desempeño de los algoritmos usando representaciones de grafos basadas en el álgebra lineal; y cómo se podrían integrar elementos de inteligencia artificial para acelerar estos algoritmos.