

Dossier: “Aportes del pensamiento computacional a la educación en ciencias y tecnologías”
Efecto del mallado en el aprendizaje de métodos variacionales: cuando la discretización afecta la interpretación
The effect of meshing on learning variational methods: when discretization shapes interpretation
Revista IRICE
Consejo Nacional de Investigaciones Científicas y Técnicas, Argentina
ISSN-e: 2618-4052
Periodicidad: Frecuencia continua
núm. 49, e2035, 2025
Recepción: 20 mayo 2025
Aprobación: 07 agosto 2025
Cómo citar: Pairetti, C. I. (2025). Efecto del mallado en el aprendizaje de métodos variacionales: cuando la discretización afecta la interpretación. Revista IRICE, 49, e2035. https://doi.org/10.35305/revistairice.vi49.2035
Resumen:
El pensamiento computacional ha modificado profundamente la manera en que se representan y resuelven los problemas científicos. En este trabajo se analiza cómo las estrategias de discretización espacial influyen en la interpretación conceptual de los métodos variacionales, fundamentales para la resolución numérica de ecuaciones diferenciales parciales. A través del estudio comparado de dos plataformas ampliamente utilizadas –OpenFOAM y Basilisk– se examinan los distintos modos en que sus estructuras de datos modelan el espacio y condicionan el diseño de algoritmos y operadores diferenciales, centrándose en su aplicación a un problema representativo: la simulación de turbulencia. Desde una perspectiva epistemológica inspirada en los aportes de Piaget y García, se argumenta que estas decisiones técnicas no son neutras: contribuyen a configurar formas específicas de pensar los fenómenos físicos y de validar soluciones. Se sostiene que las diferencias entre estos paradigmas de modelado numérico deben considerarse no solo al momento de elegir una herramienta de simulación, sino también al diseñar los contenidos curriculares en carreras de ingeniería. Se propone luego una reflexión crítica sobre el impacto que el uso de herramientas numéricas puede tener en el desarrollo cognitivo de los profesionales en formación. En un contexto de adopción masiva e irreflexiva de tecnologías basadas en matemática discreta y estadística, se vuelve imprescindible revisar las implicancias epistemológicas que acompañan estas transformaciones.
Palabras clave: discretización, estructura de datos, pensamiento computacional, multiescala.
Abstract:
Computational thinking has deeply transformed the way scientific problems are represented and solved. This paper analyzes how spatial discretization strategies influence the conceptual understanding of variational methods, which are key to the numerical resolution of partial differential equations. Through a comparative study of two widely used platforms –OpenFOAM and Basilisk– the work examines how their data structures model space and constrain the design of algorithms and differential operators, focusing on turbulence simulation as a representative case. Drawing on the epistemological contributions of Piaget and García, the paper argues that these technical choices are not neutral: they shape specific ways of thinking about physical phenomena and validating solutions. It is argued that the differences between these numerical modeling paradigms should be considered not only when selecting computational tools but also when designing engineering curricula. Finally, based on the analysis presented, the paper offers a critical reflection on the impact of numerical tools –including large language models– on the cognitive development of future professionals. In a context of massive and often uncritical adoption of technologies based on discrete mathematics and statistics, it becomes crucial to reassess their epistemological implications.
Keywords: discretization, data structure, computational thinking, multiscale.
Introducción
El uso de métodos numéricos en ingeniería y ciencias aplicadas es una práctica cada vez más usual, pero su incorporación en la enseñanza suele centrarse solo en aspectos instrumentales. Se propone aquí incorporar la dimensión epistemológica de esta disciplina, a fin de considerar cómo el pensamiento computacional ha revolucionado la forma en que abordamos y resolvemos problemas complejos. Este trabajo analiza cómo el uso de diferentes herramientas de simulación computacional –en particular, OpenFOAM y Basilisk– incide en la forma en que los estudiantes comprenden fenómenos complejos como la turbulencia. Se propone una mirada crítica sobre cómo estas herramientas modelan no solo los sistemas físicos, sino también el pensamiento de quienes las utilizan. En este sentido, el artículo explora cómo el desarrollo de métodos variacionales contribuye a este proceso, siguiendo los lineamientos establecidos por Piaget y García (1982), y profundizados luego por García (1997), respecto a los aportes epistémicos de la ciencia. A fin de acotar el marco teórico técnico específico, se consideran paradigmas de la dinámica de fluidos computacional (DFC) relacionados al método de volúmenes finitos (MVF), como describen de forma general Greenshields y Weller (2022), haciendo principal énfasis en las estructuras de datos especializadas empleadas para la representación discreta del espacio y la definición de stencils para la sistematización de operaciones matemáticas ligadas al cálculo. Se comparan así dos formulaciones: una basada en mallas no estructuradas, implementadas en OpenFOAM (Greenshields, 2018)[1] descritas en detalle por Moukalled et al. (2016), y otra que emplea estructuras de tipo “árbol” (tree) implementadas en el código Basilisk[2] (Popinet, 2009). Ambos casos corresponden a plataformas basadas en software open-source que implementan el MVF para ejecutar simulaciones DFC con fines académicos y tecnológicos, ligado tanto a ciencias naturales como a casos de ingeniería.
Desde una perspectiva epistemológica, el eje de análisis son los principales conceptos que comparten las implementaciones mencionadas para representar geometrías y crear una discretización, es decir, una subdivisión de ese espacio que permita operaciones sistemáticas en cada celda de cálculo. Las abstracciones y generalizaciones necesarias para programar este tipo de estructuras son una expresión particular, bastante extendida, del pensamiento recursivo y la programación funcional, con aplicaciones en muchos ámbitos científicos y tecnológicos.
El objetivo principal de este artículo es analizar el concepto de sistematización de las dimensiones espaciales en este tipo de simulaciones y cómo esto ha influido en la representación y resolución de problemas multiescala en diversos contextos científicos e industriales. Para ello, se destacan las diferencias entre las discretizaciones que emplean mallas no estructuradas y las que utilizan grillas tipo tree, destacando las características que cada enfoque genera en las soluciones numéricas aproximadas y resaltando la transferencia que el usuario del código realiza, asignando esas características al fenómeno físico estudiado en la simulación.
Fundamentos de los métodos variacionales
El cálculo es una de las ramas de la matemática con mayor aplicación en las ciencias exactas y naturales. Esto se debe principalmente a la utilidad de la derivada como abstracción que permite estudiar sistemáticamente cualquier proceso de cambio, ya sea en el tiempo o en el espacio. Es por ello que las ecuaciones diferenciales (ED) constituyen la principal herramienta para el modelado matemático de sistemas dinámicos. Sin embargo, no siempre es posible hallar soluciones exactas a este tipo de ecuaciones. En general, con el acceso actual habitual a las TIC, para centrar el análisis en el fenómeno modelado es más conveniente emplear métodos numéricos para obtener soluciones aproximadas. En esta sección se describen los fundamentos de los llamados métodos variacionales, siendo una de las técnicas más empleadas para resolver ED, a fin de comprender luego el impacto que el uso de estas técnicas, y las metodologías aplicadas para su enseñanza, tienen sobre la formación de profesionales en carreras STEM.[3]
Resolución numérica de ecuaciones en derivadas parciales
Las ecuaciones en derivadas parciales (EDP) son modelos matemáticos muy potentes que se emplean en múltiples disciplinas para describir la evolución espacio-temporal de fenómenos, ya sean físicos o de cualquier otra disciplina. La Eq. 1, por ejemplo, describe la propagación de ondas mecánicas, acústicas o electromagnéticas.
[Eq. 1]En esta ecuación lineal de segundo orden, se observa que la derivada del campo u respecto del tiempo dos veces es proporcional al Laplaciano de u (Δu = ∂xxu + ∂yyu + ∂zzu), dado el cuadrado de una constante c, que es la velocidad de propagación de la onda. Como menciona García (1997), el desarrollo del cálculo (dentro del cual se enmarcan las ED) fue un proceso fundamental para el paradigma epistémico principalmente ligado a la física, a la descripción newtoniana del universo y a la vocación de la ciencia por modelos predictivos cuantitativos. Una descripción más profunda del impacto que el Principia, y la mecánica newtoniana en general, tuvo en la sistematización de una metodología para conformar modelos predictivos a partir de un estado inicial y leyes para describir las tasas de cambio puede encontrarse en las reflexiones finales del “Capítulo VII” de Psicogénesis e historia de la ciencia de Piaget y García (1982). Aun durante la aparición y consolidación de la relatividad y la mecánica cuántica, que superaron la mecánica clásica en cuanto a su correspondencia con los datos experimentales, la modelización mediante EDP se ha mantenido firme.
Sin embargo, la concepción de modelos más complejos lleva usualmente a ecuaciones que no pueden resolverse por métodos tradicionales de cálculo analítico. Este problema ya estaba presente en los orígenes del cálculo, siendo estudiado por el mismo Newton, que desarrolló marchas de cálculo iterativas para aproximar soluciones de ecuaciones diferenciales ordinarias como el método de Newton-Raphson.
Los primeros intentos de resolver numéricamente modelos basados en EDP aplicaban aproximaciones numéricas de las derivadas a partir de los cocientes incrementales sobre distancias pequeñas, pero no infinitesimales. Esta premisa es la misma en la que se basa el método de diferencias finitas (MDF). En este sentido, siguiendo las reconstrucciones de Feigenbaum (1985) y Milne-Thomson (2000), podemos decir que los trabajos de Bürgi, Newton y Brook Taylor, empleando diferencias finitas fueron versiones primitivas del MDF.
Aun así, estas marchas de cálculos sistemáticas no estaban constituidas como un método formal para la resolución de EDP generales. Los trabajos de Leonhard Euler hacia fines del 1700 consolidaron el uso de diferencias finitas de forma más metódica, así como los aportes de Carl Runge y Martín Kutta a principios del siglo XX introdujeron una formulación algorítmica más concreta para este tipo de cálculos.
Sin embargo, no fue hasta el advenimiento de las computadoras, a mediados del siglo XX, que el MDF se convirtió en una herramienta ampliamente extendida en las ciencias y la ingeniería para la resolución de problemas tecnológicos concretos. Con el aumento de la capacidad de cálculo, se incrementaron los esfuerzos para sistematizar los algoritmos de resolución numérica de las EDP, dando lugar al desarrollo de métodos matemáticamente más complejos, siendo el método de elementos finitos (MEF o FEM en inglés) y MVF (FVM en inglés) los más extendidos para problemas de mecánica de sólidos y fluidos respectivamente.
Todos estos métodos (MDF, MEF y MVF) se engloban en la familia de métodos variacionales y comparten la necesidad de representar el espacio a partir de una colección finita de nodos, elementos o celdas, respectivamente. Las implementaciones que se utilizan para representar estos componentes con los que se describe el espacio son el principal objeto de estudio en este trabajo.
Uso de stencils y operaciones replicables
En el contexto de los métodos variacionales, los stencils son patrones locales que definen cómo interactúan los nodos en una malla para aproximar soluciones a ecuaciones diferenciales parciales mediante integración numérica. Estos patrones permiten replicar operaciones matemáticas en distintas geometrías parametrizadas, facilitando la generalización de soluciones en múltiples dimensiones.

Nota. Representación gráfica de un stencil 3x3 en una malla cartesiana implementada en la plataforma Basilisk,[4] adaptada de Popinet (2009). El conjunto de celdas (MVF), en principio, no tiene un tamaño particular; solo se define en términos de conectividad entre las celdas (índices) y restricciones geométricas (todas las celdas son cuadrados del mismo tamaño).
El uso de este tipo de representaciones permite sistematizar cálculos de interpolaciones o diferenciales finitas en las regiones donde se ubica el stencil, empleando siempre la misma fórmula, modificando unos pocos parámetros geométricos y actualizando los valores del campo (a en la Figura 1). Esto es esencial para manejar eficientemente problemas en 2D y 3D, donde existirán muchos stencils, es decir, muchos grados de libertad que deberán ser calculados.
En este sentido, es necesario contar con una estructura de datos capaz de almacenar y gestionar nodos, aristas, caras y celdas de manera coherente en diferentes dimensiones, garantizando la consistencia y precisión de los operadores discretos que representan derivadas, integrales y otros operadores analíticos del continuo.
Estructuras de datos multidimensionales y concepto de discretización
La implementación efectiva de stencils y operadores discretos depende de estructuras de datos que puedan adaptarse a distintas dimensiones sin pérdida de generalidad. Estas estructuras deben ser lo suficientemente flexibles para acomodar la complejidad de las interacciones entre elementos en la malla y permitir operaciones como el refinamiento adaptativo y los cambios de topología.
La abstracción proporcionada por estas estructuras de datos es fundamental para desarrollar solvers[5] capaces de manejar una variedad de problemas físicos sin necesidad de reescribir código para cada caso específico, promoviendo así la eficiencia y reutilización del código.
Cabe aquí reflexionar sobre el concepto de discretización del espacio, normalmente llamada mallado, y de los campos. Entendemos como discretización de un campo (una función escalar continua en el espacio) a la representación del mismo de manera discreta, como una colección de valores puntuales que representan al campo en cierta región (nodo, celda o elemento). El mallado es, entonces, la división de todo el dominio espacial en esos componentes fundamentales y, por lo tanto, define el mapa que vincula el campo solución buscado con la aproximación numérica dada por valores puntuales.
Esta relación entre evoluciones continuas o discretas tiene paralelos interesantes con la dicotomía analógico-digital, que afecta directamente el diseño de dispositivos electrónicos, entre ellos las computadoras. No atribuimos aquí una relación de causalidad respecto a cómo se utilizan las discretizaciones en el MVF, pero el uso de representaciones discretas para representar elementos de variación continua está presente en la digitalización de señales, como por ejemplo en el sampling de audio.
Notamos aquí un primer aporte de la discretización del espacio sobre el paradigma epistémico actual, en un aspecto íntimamente vinculado al pensamiento computacional: se trata de una expresión que desarrolla y profundiza una metodología de representación en términos de una colección fina de datos y funciones de extensión para recuperar la señal completa original.
Relevancia epistémica de las estructuras de datos para la representación del espacio
Mencionaremos en esta sección dos tipos diferentes de representación de mallas o grillas, a fin de ilustrar que la definición abstracta de las celdas y su parametrización pueden llevar a diferentes paradigmas en cuanto a la descripción de los fenómenos que se pretenden representar. Los enfoques de mallado analizados se basan en celdas de distribución no estructurada y en grillas del tipo tree (árbol). Mencionaremos como casos particulares de estos paradigmas las plataformas de software open-source, OpenFOAM (mallas no estructuradas) y Basilisk (mallas tree), dado que los mismos pueden explorarse con libertad y constituyen, por lo tanto, una vasto material de referencia para ilustrar el impacto que la estrategia de discretización tiene en el desarrollo posterior del código. Cabe también notar que las comunidades de usuarios y desarrolladores de cada código participan en foros propios y compartidos. Un marco teórico común de métodos numéricos permite la interacción de ambas comunidades, pero las características distintivas de cada plataforma conducen a un número de interacciones significativamente mayor en los foros intracomunidad.
OpenFOAM, con más de 100 mil usuarios registrados y una amplia documentación industrial, ha sido adoptado por empresas como Volkswagen, Siemens y General Electric,[6] lo que evidencia su consolidación en el sector productivo. Por otro lado, Basilisk es utilizado principalmente en investigaciones publicadas en revistas como Journal of Fluid Mechanics o Physics of Fluids,[7] lo que lo posiciona como una herramienta reconocida en la frontera académica de la simulación multifásica.
Perspectiva de OpenFOAM: mallas no estructuradas
OpenFOAM es una plataforma multifísica que utiliza mallas no estructuradas, que pueden adaptarse a geometrías complejas de manera más directa y sencilla. Su formulación basada en celdas poliédricas permite una representación detallada de geometrías arbitrarias, lo que es ventajoso en aplicaciones industriales donde las formas geométricas pueden ser intrincadas.
Sin embargo, en este enfoque, la estructura de datos está fuertemente restringida a la geometría específica de la malla; es decir, aunque cada vértice puede ubicarse libremente en el espacio y conectarse a cualquier otro para formar una arista, estas conexiones deben organizarse posteriormente para formar caras y, luego, celdas. Los objetos malla de OpenFOAM tienen una estructura compleja que requiere una gran cantidad de parámetros para describir unívocamente la conectividad de las celdas.
Por lo tanto, las mallas en este paradigma no tienen parámetros globales; se definen celda a celda, y la precisión de cada esquema numérico depende fuertemente de las propiedades locales de la malla, a pesar de que las operaciones algebraicas en cada celda sean las mismas. Esto puede dificultar la implementación de algoritmos que necesiten adaptarse a múltiples escalas.
Estructura de datos tree en Basilisk
Basilisk es una plataforma de simulación que utiliza grillas cartesianas adaptativas, donde la estructura de datos prescinde de una representación geométrica explícita. Esto permite que las celdas puedan interpretarse de distintas maneras, lo que es especialmente útil en la resolución de problemas multiescala. Al no estar limitadas por una geometría fija, estas grillas pueden adaptarse dinámicamente a fenómenos que ocurren en diferentes escalas espaciales y temporales.
La generalidad de este enfoque facilita la implementación de algoritmos numéricos que requieren un alto grado de adaptabilidad y eficiencia computacional, especialmente en problemas donde las fronteras y geometrías cambian con el tiempo o son desconocidas a priori. La figura siguiente resume lo descrito en la documentación de Basilisk.[8]

Nota. Esquemas descriptivos de la dinámica de refinamiento aplicada en mallas quadtree, adaptado de Van Hooft et al. (2018).
Este paradigma de representación se basa en operaciones que relacionan fuertemente celdas madres e hijas. Busca facilitar operadores que permitan el refinamiento local, y por lo tanto dispone de funciones muy directas para mapear valores entre los diferentes niveles de refinamiento. En este contexto, la conectividad entre celdas y las características geométricas de cada una pasan a segundo plano
Paralelismo entre mallas no estructuradas y grillas tipo tree de Basilisk
Las Figuras 2 y 3 ilustran las diferencias entre estas dos aproximaciones. Mientras que Basilisk ofrece una mayor flexibilidad y generalidad al prescindir de una geometría fija, OpenFOAM proporciona una representación geométrica detallada que puede ser crucial en ciertos contextos. La elección entre una y otra depende de las necesidades específicas del problema y las prioridades en términos de adaptabilidad versus precisión geométrica.
Abstracción y niveles de sistematización en el desarrollo de algoritmos
Aunque la programación orientada a objetos proporciona una estructura para organizar código y facilitar la reutilización, en este contexto se ha optado por prescindir de la representación geométrica explícita. Para geometrías fácilmente parametrizables se utilizan funciones analíticas, para geometrías complejas se emplea una representación por fracción de volumen (basada en la estrategia Volume of Fluid, VOF), que funciona de frontera embebida. Esto permite enfocarse en la abstracción y sistematización necesarias para desarrollar solvers (algoritmos de resolución numérica) que puedan adaptarse a diferentes problemas sin estar limitados por falencias geométricas de mallado. Es decir, se emplean representaciones basadas en mallas cartesianas; las limitaciones surgen por los valores de la solución y no por características geométricas de las celdas que se alejen del caso de referencia.
Este enfoque enfatiza la importancia de los niveles de abstracción en el pensamiento computacional, donde la generalización y flexibilidad son clave para abordar una amplia gama de problemas. Al centrarse en la implementación de operadores y algoritmos generales, se promueve una comprensión más profunda de los principios subyacentes y se facilita la innovación en métodos numéricos.
Modelización multiescala de fenómenos físicos
La modelización multiescala es fundamental para la comprensión y predicción de fenómenos industriales, donde los procesos a diferentes escalas interactúan de manera compleja. Al utilizar modelos que asumen comportamientos homogéneos por debajo de una escala mínima, se simplifica el análisis, pero se corre el riesgo de ignorar detalles físicos importantes.
Esta simplificación implica trabajar con representaciones que, si bien son útiles, pueden ocultar fenómenos relevantes en escalas menores. Es aquí donde la reflexión epistemológica es crucial, permitiendo cuestionar las suposiciones y limitaciones de nuestros modelos y buscar formas de integrarlos con información más detallada cuando sea necesario.
La literatura en matemática teórica y didáctica de la ciencia ofrece perspectivas valiosas sobre cómo abordar estos desafíos, enfatizando la importancia de la comprensión profunda de los conceptos y la comunicación efectiva de ideas complejas. Este enfoque interdisciplinario es esencial para avanzar en la modelización y simulación de fenómenos industriales de alta complejidad.
Implicancias pedagógicas
Más allá del análisis técnico y epistemológico de los métodos variacionales, este trabajo invita a considerar el uso de herramientas computacionales como una potente estrategia pedagógica. La implementación de modelos numéricos no debería limitarse a ser una instancia meramente instrumental para obtener soluciones, sino que puede convertirse en una oportunidad para promover una comprensión más profunda de los fenómenos físicos, de las estructuras matemáticas que los modelan y de las decisiones computacionales que permiten resolverlos de forma práctica.
En este sentido, el uso reflexivo de herramientas computacionales exige atender a una cadena de hipótesis que, aún adoptadas implícitamente, condicionan tanto la calidad de los resultados obtenidos como la forma en que se construye conocimiento en la práctica profesional y académica. Estas hipótesis abarcan, entre otros niveles:
Las aproximaciones del modelo físico (por ejemplo, suponer flujo incompresible o condiciones de frontera ideales).
Las hipótesis matemáticas que permiten formular el problema en términos de ED (como continuidad, linealidad o condiciones de regularidad).
Las aproximaciones numéricas aplicadas en la discretización (por ejemplo, esquemas de interpolación o tratamiento de derivadas).
Las estructuras de datos elegidas para representar las variables en el entorno computacional (como mallas, listas de conectividad o grillas adaptativas).
Trabajar conscientemente con estas capas de decisión ofrece a los estudiantes una oportunidad única para desarrollar pensamiento computacional en un sentido epistémico, es decir, como una forma de organizar conocimiento, razonar sobre sistemas, y estructurar procedimientos para abordar problemas complejos mencionados por Piaget y García (1982). No se trata solo de “saber usar” una herramienta, sino de entender cómo y por qué esa herramienta estructura la manera de pensar y representar el problema.
Desde esta perspectiva, enseñar simulación computacional en ingeniería puede vincularse con lo que DiSessa (2002) denomina el uso de materiales inteligentemente diseñados, capaces de generar entornos que favorecen la reconstrucción conceptual a través de la manipulación activa de modelos. Asimismo, la posibilidad de explorar versiones alternativas de un mismo modelo –cambiando las condiciones de borde, el refinamiento de la malla o el algoritmo de integración– permite poner en juego lo que Papert (1980) llamaba aprendizaje con el modelo, donde la herramienta se convierte en un mediador cognitivo más que en un objeto externo.
Finalmente, como señalan Hammer y Elby (2002), el modo en que los estudiantes interpretan y validan el funcionamiento de los modelos está fuertemente condicionado por sus epistemologías implícitas: qué creen que significa “entender” un fenómeno, o “predecir” un comportamiento. Desde esta perspectiva, el diseño curricular debe habilitar espacios donde los estudiantes discutan explícitamente estas decisiones técnicas, promoviendo el desarrollo de una epistemología crítica sobre su propia práctica modelizadora.
En síntesis, las herramientas computacionales, lejos de ser elementos neutros, pueden funcionar como dispositivos formativos para explorar las tensiones entre lo físico, lo matemático y lo computacional. Incorporar esta reflexión en la enseñanza de la ingeniería no solo enriquece la formación técnica, sino que permite articular el aprendizaje de contenidos específicos con una comprensión crítica de los marcos epistémicos que orientan la ciencia y la tecnología contemporáneas.
Experiencias docentes relacionadas al modelado de turbulencia con OpenFOAM y Basilisk
Para ilustrar cómo una característica particular de una implementación específica puede actuar como dispositivo formativo, se analiza a continuación la dinámica de aprendizaje lograda por tres estudiantes especializados en DFC a lo largo de tres proyectos de investigación relacionados al impacto de la turbulencia en aplicaciones de ingeniería puntuales.
Por un lado, el trabajo de Seguenzia et al. (2022) presentó una comparación de valores estimados de la fuerza de arrastre, calculados con modelos RANS (Reynolds Average Navier-Stokes) y con simulación numérica directa (DNS), realizados en OpenFOAM y Basilisk, respectivamente. A lo largo de esta colaboración entre estudiantes de Ingeniería Mecánica y Licenciatura en Física, fue interesante observar los diversos enfoques para comprender la dinámica del sistema estudiado, que consistía en el flujo alrededor de un cilindro.
El estudiante de Ingeniería, que ya había cursado Mecánica de Fluidos estudiando la turbulencia como un fenómeno físico particular, utilizó modelos para representar las escalas turbulentas de flujo. Utilizando la configuración recomendada para representar el flujo alrededor de cuerpos, durante su trabajo se enfocó en lograr refinamientos de malla para estabilizar el valor del coeficiente global de arrastre medio, sin reparar en las evoluciones transitorias ni en la dinámica de vórtices que las perturbaciones turbulentas generan sobre el flujo medio. Esto le permitió avanzar más rápidamente, de forma pragmática, en la confección de un modelo numérico que lograse predicciones de la fuerza resultante consistentes con los valores experimentales de referencia. Luego, al contrastar sus resultados con las simulaciones realizadas en Basilisk por el estudiante de Física, comprendió la complejidad del fenómeno modelado por las ecuaciones RANS, pero sin saber cuál sería un enfoque adecuado para capturar dichas características utilizando OpenFOAM.
En contraste, el estudiante de Física que participó en el trabajo citado tuvo que desarrollar métodos de integración y promediado para calcular los valores medios a comparar con los resultados experimentales. En dicho proceso, reparó en la relación que guardan las escalas espaciales y temporales en los flujos turbulentos. Para ello, tuvo que estudiar con mayor profundidad la teoría de mecánica de fluidos, a fin de configurar la simulación en Basilisk de forma adecuada. La definición de los criterios de refinamiento para capturar correctamente diversos aspectos del flujo a simular fue un proceso más complejo y, por lo tanto, llevó un tiempo más prolongado. Sin embargo, al finalizar la campaña de simulación el estudiante de Física pudo incorporar los conceptos de capa límite y desprendimiento de vórtices, asociando dichos fenómenos a la variación temporal de la fuerza de arrastre. En las conclusiones de su trabajo, Seguenzia et al. (2022) y Canciani et al. (2024) contrastan los enfoques RANS y DNS, notando que, en el primer caso, los efectos turbulentos se representan como un fenómeno no asociado al diseño de la grilla, casi como algo externo, mientras que, en el segundo enfoque, la malla se diseña en función de las estructuras de flujo transitorias que se busca capturar.
Luego de esta experiencia, el estudiante de Física desarrolló su trabajo final de licenciatura,[9] aplicando los conocimientos adquiridos para simular flujos turbulentos en problemas de atomización. En esta etapa logró afianzar sus conocimientos sobre las características de la turbulencia, resaltando la necesidad de capturar su carácter transitorio para analizar problemas con superficie libre. Cabe notar, en el desarrollo del artículo, cómo se describe a la turbulencia como una característica intrínseca de las ecuaciones constitutivas de la mecánica de fluidos. No se concibe, en el marco teórico presentado, una manera de representar los efectos turbulentos de forma separada del valor medio de flujo. Para el estudiante, capturar las estructuras de flujo en todas sus escalas es el objetivo de las simulaciones realizadas y, por lo tanto, es el resultado principal de su trabajo. Es decir, el foco no se pone en un valor numérico específico, sino en la evolución del proceso que genera ese valor.
Los resultados de las simulaciones de atomización realizadas en la tesina fueron luego presentados, de forma más sintética, en Canciani et al. (2024). A pesar de tener un enfoque más resultadista, orientado a cuantificar los niveles de resolución de malla necesarios para capturar todas las gotas relevantes en un proceso de atomización, el artículo está atravesado por una discusión en profundidad de cómo el criterio de refinamiento es clave para capturar los procesos transitorios en la fragmentación de gotas.
Finalmente, en Carbone et al. (2024), otra estudiante de Ingeniería Mecánica presenta simulaciones equivalentes a las estudiadas en Seguenzia et al. (2022), utilizando Basilisk. Cabe notar que la estudiante de Ingeniería tenía la misma formación de grado que Seguenzia y ya había empleado OpenFOAM para realizar RANS, modelando los efectos turbulentos en lugar de capturarlos con el refinamiento de malla adaptativo. Durante la ejecución de este último trabajo, simulando el problema con Basilisk, la Ingeniera Cortizo pudo adquirir una comprensión más profunda de las características de los flujos turbulentos, leyendo luego a Canciani (2023) y proponiendo implementaciones de estrategias de refinamiento para mejorar la representación de las grandes escalas de flujo, en un paradigma del tipo LES (Large Eddy Simulation).
Comparando los trayectos de aprendizaje de estos tres alumnos, es evidente el impacto que las capacidades y limitaciones de la herramienta empleada tienen sobre la comprensión de un fenómeno específico.
El uso de estrategias de modelado permite estudiar de forma cuantitativa y rápida las consecuencias de un fenómeno específico sin reparar en sus características fundamentales. En contraste, el estudio por primeros principios de un fenómeno puede extenderse mucho en el tiempo, impidiendo que el estudiante alcance resultados tecnológicamente relevantes. Estos diferentes trayectos formativos tienen efectos concretos en el futuro ámbito profesional del estudiante. Un ingeniero formado exclusivamente con herramientas cerradas y modelos predefinidos puede tender a aceptar los resultados del software sin cuestionarlos, lo que puede derivar en decisiones inapropiadas en contextos industriales con condiciones no estándar. En contraste, quienes han trabajado con herramientas que requieren explicitar sus supuestos –como Basilisk– suelen estar más atentos a validar los modelos, adaptar estrategias de simulación y justificar sus decisiones ante colegas o clientes.
El primer tipo de enfoque es más adecuado para resolver problemas de ingeniería, mientras que la segunda forma de estudio es más útil en proyectos con fines científicos. Sin embargo, en cuanto al aprendizaje de una disciplina y comprensión de un fenómeno, es claro que ambos enfoques tienen aportes valiosos para que el alumno desarrolle su propio modelo mental del caso estudiado. En este sentido, elegir una herramienta específica (OpenFOAM o Basilisk) para realizar un estudio de DFC implica también seleccionar representaciones de la solución que afectarán significativamente la manera en la que el estudiante comprende el fenómeno analizado. Asimismo, no basta con mostrar resultados obtenidos por simulaciones de primeros principios para comprender los fundamentos del fenómeno observado; utilizar los modelos numéricos más rudimentarios permite una comprensión de los fundamentos desde el hacer, que se plasman luego en una visión más crítica de las estrategias de modelado. Por otra parte, debe siempre tenerse presente que las ecuaciones utilizadas son un modelo en sí mismo y que la posibilidad de alcanzar una solución cuantitativa específica con los recursos computacionales (materiales) disponibles depende en gran medida de qué partes del fenómeno estudiado decidimos ignorar (o modelar), siendo críticos respecto a cuánto pueden impactar estas simplificaciones en la precisión de nuestra predicción.
Analogías con otras herramientas computacionales
Las reflexiones resultantes de la experiencia descrita acerca del impacto de la estructura computacional elegida sobre la comprensión de la turbulencia pueden relacionarse con otras áreas del modelado, tanto dentro de la DFC como en otros ámbitos que empleen métodos numéricos. Por ejemplo, el uso poco reflexivo de modelos genéricos de transporte dentro de simulaciones DFC, aplicadas a problemas donde las condiciones físicas específicas exigen considerar fenómenos no lineales de pequeña escala –como es el caso del modelado del cambio de fase en sistemas térmicos industriales– puede conducir a interpretaciones inadecuadas de los resultados.
Para el caso concreto de estimar la producción de vapor en calderas, por ejemplo, Prosperetti (2017) resalta la importancia de considerar la dinámica de la nucleación y el crecimiento de burbujas en la región del flujo cercana a la superficie caliente. Ignorar estos procesos físicos críticos lleva a predicciones numéricas limitadas, capaces de inducir conclusiones erróneas acerca de la eficiencia térmica, seguridad operacional o estabilidad del proceso analizado. Sin embargo, es frecuente que modelos simplificados de DFC estimen esta producción tratando el cambio de fase como un fenómeno puramente superficial, en el cual el vapor se genera directamente sobre la superficie sólida calentada.
Estas limitaciones no son exclusivamente técnicas, sino que constituyen un desafío epistemológico significativo. La aplicación acrítica de simulaciones numéricas genera, como advierten Roache (2008) y Oreskes et al. (1994), una falsa percepción de precisión y comprensión del fenómeno estudiado, ocultando la necesidad de cuestionar los supuestos subyacentes del modelo. En lugar de promover un análisis profundo del problema físico, estos enfoques pueden reducir la complejidad real a un marco conceptual demasiado estrecho, limitando la capacidad crítica del usuario.
Desde una perspectiva formativa, esta analogía refuerza la importancia de enseñar a los estudiantes no solo el uso técnico de herramientas computacionales, sino también una conciencia explícita sobre sus supuestos y limitaciones. Las experiencias expuestas pueden analizarse a través de las reflexiones de DiSessa (2000) y Papert (1980), quienes sostienen que las herramientas computacionales, cuando se usan reflexivamente, son dispositivos potentes para estimular una reconstrucción crítica y profunda del conocimiento científico. En particular, DiSessa (2014) también observa la potencia que este tipo de práctica tiene sobre los procesos de aprendizaje, a partir de inducir un cambio conceptual en el estudiante; más recientemente, DiSessa (2023) describe esta dinámica en términos de teorías de conocimiento, en un paralelismo similar al propuesto por Piaget y García (1982). Cabe notar que esta dinámica puede desarrollarse en todos los niveles educativos, como muestran Pujante-Martínez et al. (2023).
Por lo tanto, elegir una herramienta específica de simulación implica mucho más que seleccionar una técnica numérica: significa también optar por una forma particular de entender el fenómeno que se estudia. Este tipo de reflexión crítica es esencial, dado que la calidad y relevancia de los resultados obtenidos con cualquier modelo dependen directamente de la adecuación entre la representación computacional empleada y la naturaleza real del fenómeno físico que se pretende estudiar.
En este sentido, las herramientas computacionales –sean modelos turbulentos específicos, estructuras discretas de mallado o modelos simplificados de transporte– nunca son epistemológicamente neutras. Su uso debería estar siempre acompañado por una reflexión explícita sobre cómo estos modelos representan, simplifican o incluso sesgan nuestra comprensión de la realidad.
Conclusiones
El desarrollo de métodos variacionales y el uso de stencils han transformado nuestra manera de interpretar y representar el espacio en problemas computacionales. La sistematización de las operaciones en todas las dimensiones de un problema y la implementación de distintas estructuras de datos presentan diversas ventajas para abordar problemas multiescala o geometrías complejas, que requieren formulaciones con capacidad de adaptación local (Basilisk) o mallas no estructuradas generales (OpenFOAM).
La comparación entre mallas no estructuradas y grillas adaptativas muestra cómo la estructura seleccionada afecta también la jerarquía que se le da a las distintas características del problema. Basilisk ofrece refinamiento adaptativo local y, por ende, induce a pensar en diversas escalas del problema en diferentes localizaciones del dominio. OpenFOAM, en cambio, permite que el usuario separe el proceso de mallado y de resolución, proporciona una representación geométrica generalizada que se define a priori y luego garantiza que el solver funcionará de manera robusta sin necesidad de modificar geometrías.
Es interesante analizar con detalle el contraste que ambas concepciones de discretización, soportadas por el pensamiento computacional implicado en la implementación concreta de cada herramienta, producen en la sistematización de los operadores espaciales. Cada concepción da más jerarquía a ciertos aspectos del problema e introduce caracterizaciones diferentes de los mismos fenómenos. Siguiendo el trabajo de Piaget y García (1982), podemos resaltar cómo el desarrollo de estas características distintivas en cada herramienta ha tenido fuertes influencias en el paradigma epistémico bajo el cual hacen ciencia las comunidades que usan cada software. Puede observarse que los usuarios de OpenFOAM suelen separar las operaciones de mallado y resolución, realizando un proceso de validación antes de comenzar con las campañas de resolución, mientras que los usuarios de Basilisk optan por realizar un ajuste continuo de los parámetros de mallado empleando estrategias de refinamiento adaptativo. Es interesante también notar cómo la primera comunidad ha hecho un uso más utilitarista y directo de la herramienta para resolver problemas de ingeniería, transformando OpenFOAM en una de las plataformas multifísica más adoptadas por la industria a nivel global. Basilisk, en contraste, se encuentra mucho más difundido en la comunidad científica que estudia problemas multiescala, principalmente por investigadores que analizan fenómenos con cierta dinámica fractal como la turbulencia o la atomización.
Cabe notar que la implementación de métodos variacionales, analizada en este artículo, es solo una expresión del impacto que la matemática discreta, como base del pensamiento computacional, tiene en diversas áreas clave en la ciencia y la tecnología. En particular, la representación del espacio en estructuras discretas basadas en diferentes tipos de abstracción permite aproximar fenómenos continuos con diversos enfoques. Por lo tanto, el desarrollo de conocimiento en cualquier disciplina que utilice modelos construidos con una concepción de cálculo diferencial se verá eventualmente influenciado, en mayor o menor medida, por las estrategias de discretización empleadas en las herramientas computacionales adoptadas por la comunidad científica correspondiente.
En este sentido, podemos mencionar otros ejemplos como el conjunto de técnicas que se han desarrollado para el procesamiento de señales. En particular, aplicaciones de audio, video y telecomunicaciones explotan fuertemente técnicas como la discretización del tiempo, la amplitud para el muestreo y la transformada discreta de Fourier (entre tantos otros métodos) para el procesamiento de la información. Estas herramientas de la matemática discreta subyacen en las arquitecturas de redes que procesan datos en capas discretas, como las redes neuronales artificiales, habilitando el aprendizaje profundo y la resolución de problemas complejos en dominios como el reconocimiento de imágenes y la generación de lenguaje.
De acuerdo con Harari (2024), en el actual escenario de adopción masiva y, a menudo, irreflexiva de herramientas bajo la etiqueta de inteligencia artificial (IA), es crucial considerar los impactos epistemológicos asociados al uso de técnicas basadas en matemática discreta y estadística. Una aplicación poco cuidadosa de estas metodologías puede introducir sesgos en los modelos concebidos, llevando a una representación sistemáticamente falible de los fenómenos que se busca estudiar. Por lo tanto, reflexionar sobre estas implicancias epistemológicas es hoy una necesidad para guiar el uso del pensamiento computacional hacia enfoques más integrales y críticos, equilibrando innovación tecnológica con una comprensión profunda de su impacto en el paradigma epistémico.
En definitiva, enseñar modelado computacional no implica solamente transmitir una técnica, sino formar una mirada crítica sobre la relación entre modelos, herramientas y realidad. Esta perspectiva resulta indispensable para formar profesionales capaces de comprender, adaptar y justificar sus decisiones en contextos complejos e inciertos.
Referencias
Canciani, P. (2023). Modelado de atomización de gotas mediante fluidodinámica computacional [Tesina de grado inédita]. Facultad de Ciencias Exactas, Ingeniería y Agrimensura, Universidad Nacional de Rosario.
Canciani, P., Pairetti, C., & Navone, H. (2024). Modeling drop atomization using computational fluid dynamics. Mecánica Computacional, 41, 321-331. https://doi.org/p67t
Carbone, M. C. C., Pairetti, C. I., Venier, C. M., & Damián, S. M. (2024). Evaluación de modelo de turbulencia para simulación de grandes torbellinos implícita en aerodinámica externa. Resúmenes de Mecánica Computacional, 1(6), 57. https://doi.org/p67v
DiSessa, A. A. (2000). Changing minds: computers, learning, and literacy. MIT Press. https://doi.org/p67w
DiSessa, A. A. (2002). Why “conceptual ecology” is a good idea. En M. Limón & L. Mason (Eds.), Reconsidering conceptual change: Issues in theory and practice (pp. 28-60). Springer.
DiSessa, A. A. (2014). A history of conceptual change research. UC Berkeley.
DiSessa, A. A. (2023). Conceptual change and developmental teaching: comment on Gennen. Human Development, 67(2), 108-113. https://doi.org/p67x
Feigenbaum, L. (1985). Brook Taylor and the method of increments. Archive for History of Exact Sciences, 34, 1-140. https://doi.org/c6nz6p
García, R. (1997). La epistemología genética y la ciencia contemporánea. Gedisa.
Greenshields, C. J. (2018). OpenFOAM user guide version 6. The OpenFOAM Foundation.
Greenshields, C. J., & Weller, H. G. (2022). Notes on computational fluid dynamics: general principles. CFD Direct.
Hammer, D., & Elby, A. (2002). On the form of a personal epistemology. En B. K. Hofer & P. R. Pintrich (Eds.), Personal epistemology: the psychology of beliefs about knowledge and knowing (pp. 169-190). Erlbaum.
Harari, Y. N. (2024). Nexus: A brief history of information networks from the Stone Age to AI. Random House.
Milne-Thomson, L. M. (2000). The calculus of finite differences. American Mathematical Society.
Moukalled, F., Mangani, L., & Darwish, M. (2016). The finite volume method. Springer International Publishing.
Oreskes, N., Shrader-Frechette, K. & Belitz, K. (1994). Verification, validation, and confirmation of numerical models in the earth sciences. Science, 263(5147), 641-646. https://doi.org/ct36kv
Papert, S. (1980). Mindstorms: children, computers, and powerful ideas. Basic Books.
Piaget, J., & García, R. (1982). Psicogénesis e historia de la ciencia. Siglo XXI.
Popinet, S. (2009). An accurate adaptive solver for surface-tension-driven interfacial flows. Journal of Computational Physics, 228(16), 5838-5866. https://doi.org/czp5zz
Prosperetti, A. (2017). Vapor bubbles. Annual Review of Fluid Mechanics, 49(1), 221-248. https://doi.org/gs7rn4
Pujante-Martínez, L., Le Clainche, S., Pérez, J. M., & Ferrer, E. (2023). Learning fluid dynamics and the principles of flight: from primary school to STEM degrees. European Journal of Physics, 44(4), 045002. https://doi.org/p673
Roache, P. J. (2008, octubre). Validation: definitions or descriptions [Ponencia]. 3rd Workshop on CFD Uncertainty Analysis, Lisboa, Portugal. https://goo.su/AzPBp
Seguenzia, N. I., Canciani, P., Pairetti, C., & Navone, H. (2022). Efectos del modelado de turbulencia sobre las fuerzas aerodinámicas en un cilindro fijo. Mecánica Computacional, 39(4), 109-110. https://goo.su/fpOs
Van Hooft, J. A., Popinet, S., Van Heerwaarden, C. C., Van der Linden, S. J., De Roode, S. R., & Van de Wiel, B. J. (2018). Towards adaptive grids for atmospheric boundary-layer simulations. Boundary-Layer Meteorology, 167, 421-443. https://doi.org/gdkrrn
Contribución de las/os autoras/es (CRediT)

1- Administración del proyecto; 2- Adquisición de fondos; 3- Análisis formal; 4- Conceptualización; 5- Curaduría de datos; 6- Escritura – revisión/edición; 7- Investigación; 8- Metodología; 9- Recursos; 10- Redacción – borrador original; 11- Software; 12- Supervisión; 13- Validación; 14- Visualización.
Notas
Notas de autor
Información adicional
Cómo citar: Pairetti, C. I. (2025). Efecto del mallado en el aprendizaje de métodos variacionales: cuando la discretización afecta la interpretación. Revista IRICE, 49, e2035. https://doi.org/10.35305/revistairice.vi49.2035

