Eficiencia de la inteligencia artificial como modelos de optimización y pronóstico en los mercados bursátiles

Efficiency of artificial intelligence as optimization and forecasting models in stock markets

Mtro. Kevin Omar Olivares Medina
Universidad de Guadalajara, México
Dr. César Corona Pacheco
Universidad de Guadalajara, México
Mtro. Dante Moreno Flores
Universidad de Guadalajara, México

Diagnóstico FACIL Empresarial Finanzas Auditoria Contabilidad Impuestos Legal

Universidad de Guadalajara, México

ISSN: 2007-2147

ISSN-e: 2683-1481

Periodicidad: Semestral

núm. 23, 2025

revista.dfe@cucea.udg.mx

Recepción: 19 octubre 2024

Revisado: 11 noviembre 2024

Aprobación: 20 enero 2025

Publicación: 20 febrero 2025



Resumen: El documento muestra un análisis realizado por medio de modelos de Inteligencia Artificial para hacer comparativas en las predicciones de carteras de inversión en México y Estados Unidos, dado el interés de los inversionistas por reducir el riesgo de perdidas en distintos periodos de tiempo, se utilizaron los modelos ARIMA para la predicción de series temporales en comparación con la red neuronal de perceptrón multicapa y enjambre de partículas en la selección óptima de cartera. También se aplica la teoría de Markowitz (1952), para identificar el tipo de cartera en la frontera eficiente. Esta investigación tiene como principal objetivo mostrar que las tecnologías actuales pueden resolver problemas de incertidumbre y diversificar el riesgo. El estudio muestra que la inteligencia artificial puede ayudar al diseño de mejores estrategias de inversión en un tiempo determinado. El estudio tiene como limitante que solo se tomaron las principales empresas de los países antes mencionados, pero el modelo se puede replicar con muestras más grandes incluso en otras bolsas de valores.

Palabras clave: Carteras de inversión, Estrategias de inversión, Inteligencia artificial.

Abstract: The document shows an analysis carried out through Artificial Intelligence models to make comparisons in the predictions of investment portfolios in Mexico and the United States. Given the interest of investors in reducing the risk of losses in different periods of time, ARIMA models were used for the prediction of time series in comparison with the multilayer perceptron neural network and particle swarm in the optimal portfolio selection. Markowitz's theory (1952) is also applied to identify the type of portfolio on the efficient frontier. The main objective of this research is to show that current technologies can solve uncertainty problems and diversify risk. The study shows that artificial intelligence can help design better investment strategies in a given time. The study is limited by the fact that only the main companies from the aforementioned countries were taken, but the model can be replicated with larger samples even in other stock exchanges.

Keywords: Investment portfolios, Investment strategies, Artificial intelligence.

INTRODUCCIÓN

En este estudio, se evalúan los modelos ARIMA para la predicción de series temporales en comparación con la red neuronal de perceptrón multicapa, un enfoque de predicción no lineal. Asimismo, se aplica la teoría de carteras de Markowitz (1952), para identificar una cartera en la frontera eficiente mediante el método de optimización por enjambre de partículas (PSO). A partir de datos históricos de precios de activos, se desarrollaron tanto los modelos como las carteras, incluyendo un total de 10 activos.

La muestra se considera debido a que los índices recopilan las acciones de las empresas más importantes de Estados Unidos y México, reflejando así el panorama económico y financiero de ambos países. Estas empresas son las que tienen mayor capitalización de mercado y, por lo tanto, son las más negociadas por los inversionistas. El análisis de estos datos fue útil para aplicar el modelo predictivo de perceptrón multicapa y enjambre de partículas en la selección óptima de cartera.

Según Fama (1970), en la hipótesis del mercado eficiente, el precio actual de un activo en el mercado refleja toda la información disponible, ya sea histórica, pública o privada. Por lo tanto, Fama afirma que es imposible predecir los precios futuros utilizando información histórica. Sin embargo, en la realidad, muchos mercados no son eficientes ni perfectos, lo que significa que existen acciones sobrevaloradas y subvaluadas en relación a su precio teórico. Además, no todos los inversores tienen acceso a la misma información, lo que genera desigualdades. Por lo tanto, se considera que es posible predecir el precio, y esta investigación mide la eficiencia de dicho pronóstico en comparación con las herramientas convencionales.

Dado lo anterior, la principal contribución de esta investigación es demostrar que existen en el mercado actual opciones tecnológicas que pueden ayudar a la toma de decisiones y el diseño de portafolios de inversión, mostrando resultados cuantitativos importantes por medio de un modelo aplicado tomando en cuenta las teorías más importantes.

Cabe mencionar que los modelos utilizados en esta investigación tienen como principal limitante el volumen de datos utilizados, pero el mecanismo puede ser replicado con otros mercados o mayor número de activos para ver otro tipo de resultados en otros mercados.

PLANTEAMIENTO DEL PROBLEMA

El origen de la bolsa es un fenómeno relativamente reciente, ya que los mercados bursátiles surgieron como una evolución de los antiguos lugares comerciales a lo largo del tiempo. Aunque sus raíces se remontan a la antigua Grecia y Roma, se considera como punto de referencia el año 1865, cuando la Bolsa de Nueva York comenzó a operar tras la guerra civil. A partir de entonces, la bolsa de Nueva York fue desplazando gradualmente a la bolsa de Londres como el principal centro bursátil, absorbiendo así los mayores movimientos de capitales de la época.

En 1894, se estableció la Bolsa Mexicana de Valores con el objetivo de constituir un centro de operaciones y transacciones que garantizara un mercado de valores serio y debidamente regulado. Este desarrollo buscaba incentivar la inversión tanto de nacionales como de extranjeros, dando origen a una sociedad anónima compuesta por agentes de valores y empresarios (González, 2019). Así, estos mercados se convirtieron en los núcleos de intercambio de instrumentos financieros, como acciones, bonos y derivados. Estos primeros instrumentos ofrecían a sus poseedores una participación en el capital de la empresa y, en el caso de las acciones, el derecho a recibir dividendos. Las empresas, a su vez, eran las responsables de emitir estos títulos en su búsqueda de capital.

La venta de estas acciones se llevó a cabo en mercados secundarios, donde otros inversores mostraban interés en adquirirlas, otorgándoles un valor a estos títulos, ya que poseerlos representaba un ingreso estable y, si provenían de empresas exitosas o con potencial de éxito, se convertían en activos muy deseados. De esta manera, se establece el valor monetario de los títulos según la demanda de las personas y se da inicio a los mercados bursátiles.

Se ha observado una evolución en la gran oferta y demanda de activos financieros, lo cual ha generado la implementación de mecanismos regulatorios en los mercados bursátiles e inversionistas. Esta situación ha incrementado la complejidad en los procesos de compra y venta. La llegada de internet ha agilizado significativamente las transacciones, permitiendo el acceso a plataformas que amplían el alcance de estos mercados. Este fenómeno ha sido considerado un "boom" en la historia de las bolsas, atrayendo cada vez a más millones de inversionistas.

Por consiguiente, numerosos inversionistas se vieron beneficiados o perjudicados por este tipo de inversión en acciones, ya que en ese momento no se tenían en cuenta la multitud de factores que influían en la fluctuación de los precios, ni se contaba con las herramientas necesarias para predecirlos. Los profesionales implementaron el análisis fundamental, técnico y la creación de gráficos y estadísticas para comprender este fenómeno, logrando así desarrollar estrategias más certeras que les permitieran aumentar ganancias y reducir pérdidas. La introducción del concepto de riesgo financiero implicaba la posibilidad de que cualquier inversor experimentara una disminución en el precio de sus acciones o cartera en el futuro, lo que resultaba en pérdidas.

En la actualidad, se observa un aumento en el número de inversionistas y en el volumen de transacciones en los mercados bursátiles a nivel mundial, lo cual ha dado lugar al desarrollo de diversas estrategias con el fin de maximizar las ganancias. Una de las estrategias más recientes para llevar a cabo operaciones de "trading" es a través de la programación con inteligencia artificial, la cual consiste en introducir datos que el algoritmo debe analizar para generar una respuesta. En otras palabras, esta tecnología puede predecir el precio futuro de los activos financieros o seleccionar el portafolio óptimo basándose en el análisis de datos históricos.

El principal problema que enfrentan los inversionistas al momento de tomar decisiones es que deben elegir un producto financiero que tenga el menor riesgo posible en el corto plazo. Otro aspecto importante es que los inversores tienen que lidiar con problemas de agencia dado que muchos “brokers” generar productos financieros que no siempre reflejan los intereses de sus clientes.

Aquí es donde se plantea el problema. Dado que muchas herramientas de software se limitan al razonamiento de las variables introducidas por el usuario, se reconoce que existen numerosos temas complejos, como política, economía, finanzas, mercados, entre otros, que influyen significativamente en la variación de los precios de los activos. La falta de comprensión de este contexto y la imposibilidad de ser estudiados por la inteligencia artificial podrían llevar a predicciones con un margen de error considerable, lo que podría resultar en pérdidas significativas para cualquier institución o inversor.

La necesidad de crear herramientas tecnológicas que ayuden a crear modelos predictivos que ayuden a mejorar las ganancias de los inversionistas ha sido actualmente muy importante, a tal grado que se han invertido grandes capitales en la generación de IA para mejorar el rendimiento en el menor tiempo posible.

Otra consideración importante es que, aunque los problemas de optimización de carteras y predicción pueden abordarse con modelos matemáticos cuando el número de activos y las restricciones del mercado son limitadas, la complejidad del mundo real dificulta su resolución mediante métodos matemáticos. Esto se debe a que la mayoría de las oportunidades de inversión conllevan un alto nivel de riesgo. En este sentido, la inteligencia artificial no solo puede superar a los modelos tradicionales, sino que en ocasiones solo es posible lograr resultados óptimos aprovechando la capacidad de procesamiento y análisis de datos que ofrecen las computadoras y su software.

Es por ello que se han desarrollado métodos de inteligencia artificial aplicados a las finanzas para abordar esta problemática, sin embargo, surge un nuevo desafío que consiste en evaluar y analizar la eficacia de dichos métodos para obtener conclusiones sobre su alcance y limitaciones. Según Quintana e Isasi (2007), las herramientas más comúnmente utilizadas para modelar la relación entre las variables explicativas y el rendimiento inicial son los modelos lineales, en particular las regresiones lineales múltiples. Esta selección parte de la premisa implícita de que la relación entre las variables es principalmente lineal. La inclusión de variables que no cumplan con esta restricción en los modelos podría afectar la calidad de los resultados obtenidos.

Por consiguiente, la inteligencia artificial puede representar una alternativa para abordar los problemas de pronósticos y la selección óptima de carteras de activos financieros. Dada la complejidad mencionada anteriormente, los diversos modelos de inteligencia artificial disponibles podrían ofrecer resultados favorables de manera más eficiente a los inversionistas, lo que les permitiría reducir su riesgo. Asimismo, resulta fundamental comprender la complejidad de los mercados financieros y el funcionamiento de la inteligencia artificial para poder aplicarlos de forma óptima y evaluar su eficacia en comparación con los métodos tradicionales.

Este estudio se realiza con el objetivo de medir la efectividad de diversos modelos de inteligencia artificial en la predicción y optimización de carteras de activos financieros. Dado el creciente interés por mejorar la precisión en la predicción de activos en los mercados bursátiles, se han implementado diversas metodologías que buscan alcanzar una mayor exactitud y optimización de los recursos. En este contexto, la inteligencia artificial emerge como una herramienta innovadora para este tipo de aplicaciones.

REVISIÓN DE LITERATURA

Existen muchos métodos para la realización de pronósticos que ayuden a la generación de mejores opciones de inversión, pero para este estudio se seleccionaron, para el comparativo, las que poseen importancia a nivel internacional, como el perceptrón multicapa y la optimización de enjambre de partículas.

Según Sarkar, (2020) el perceptrón multicapa es una variante de las redes neuronales artificiales (RNA) que se conoce también como red multicapa con conexiones hacia adelante. Surgió como una generalización del perceptrón simple, debido a las limitaciones de esta arquitectura en la resolución de problemas de separabilidad no lineal. Por lo tanto, puede ser una solución adecuada para abordar ciertos problemas no lineales.

Algunos investigadores, como Russell, & Norvig, (2021), han evidenciado de manera independiente que el Perceptrón multicapa actúa como un aproximador universal, lo que implica que cualquier función continua en un espacio puede ser aproximada mediante un perceptrón multicapa que contenga al menos una capa oculta de neuronas. Este hallazgo posiciona al perceptrón multicapa como un modelo matemático valioso para la aproximación o interpolación de relaciones no lineales entre datos de entrada y salida. En el contexto de las redes neuronales, el perceptrón multicapa se ha consolidado como una de las arquitecturas más empleadas para abordar diversos problemas. Esta popularidad se debe, en gran medida, a su capacidad de aproximación universal, así como a su facilidad de uso y aplicabilidad. Su implementación es especialmente común en áreas financieras, como la predicción de activos en el mercado de valores o el análisis de la estabilidad financiera.

La metodología mencionada fue empleada por Quintana e Isasi (2007) en su estudio, sosteniendo que las regresiones lineales son comúnmente las herramientas más empleadas para modelar la relación entre variables financieras. Al optar por estos enfoques, se asume de antemano que la relación es lineal, lo que puede resultar en una aproximación deficiente en algunos casos.

Entonces, se llevó a cabo un análisis de regresión lineal múltiple con seis variables independientes, siendo la variable dependiente el rendimiento inicial de una acción en comparación con el desempeño del mercado en el que se cotiza. Posteriormente, se implementó un perceptrón multicapa utilizando las mismas variables y ajustando los parámetros de entrenamiento para maximizar la precisión. Los resultados mostraron un error cuadrático medio de 0,230 para el perceptrón y 0,303 para la regresión lineal múltiple. En base a estos hallazgos, se concluyó que la red neuronal artificial logró identificar un modelo más confiable que la regresión lineal múltiple, al ser capaz de capturar relaciones no lineales entre las variables y ofrecer una mejor predicción en el periodo de tiempo analizado.

Hablando de la optimización de enjambre de partículas, Rodrigo (2019) menciona que la inteligencia artificial surge como consecuencia de los avances tecnológicos a nivel mundial. Ha contribuido en la resolución de numerosos problemas complejos y difíciles de abordar mediante métodos matemáticos convencionales. Se han desarrollado algoritmos inspirados en la observación de la naturaleza, como el enjambre de partículas, el cual imita el comportamiento de un grupo de abejas en la búsqueda de campos de flores para recolectar polen. Cada abeja sigue una dirección distinta y se queda en el lugar con mayor cantidad de polen, permitiendo que la mayoría del enjambre pueda recolectar la mayor cantidad posible. Desde una perspectiva matemática, esto se puede interpretar como la maximización de una función que depende de una variable independiente.

No obstante, en el ámbito financiero resulta inviable calcular el comportamiento de las variables, específicamente el rendimiento dentro de una función. En la práctica, es casi imposible identificar una función que represente con total precisión dicho comportamiento. Por consiguiente, la aplicación de inteligencia artificial en el sector financiero es de suma relevancia, ya que proporciona nuevas metodologías para comprender y prever los rendimientos de los activos. Pakdel (2017), describe el algoritmo PSO, en el cual existen entidades denominadas partículas que se dispersan en el espacio de búsqueda de la función que se desea minimizar (o maximizar). Cada partícula evalúa el valor de la función objetivo en su posición actual en el espacio. Posteriormente, mediante una combinación de información sobre su ubicación actual y el mejor lugar que ha ocupado anteriormente, así como datos de una o más de las partículas más destacadas del grupo, determina una dirección para su movimiento.

Se concluye que, a través de pruebas de hipótesis y optimización de algoritmos, se lograron los siguientes hallazgos: El primer problema que surge al probar esta hipótesis y que puede ser abordado es la relación directa entre los rendimientos esperados o, dicho de otra manera, la riqueza promedio con medidas de riesgo coherentes con la teoría de inversión. A medida que aumenta el rendimiento esperado, también aumentan las medidas de riesgo y viceversa. El resultado del problema de tres objetivos debería llevar a la creación de una tendencia eficiente, y la optimización de enjambres de partículas proporciona mejores resultados en la predicción.

Según los hallazgos de la investigación, se recomienda y aprueba el uso de algoritmos heurísticos en la selección y optimización de carteras. La exitosa actuación de estos algoritmos en la priorización continua, en comparación con la cartera de mercado, es un testimonio que respalda su compatibilidad con el problema, lo cual no puede ser despreciado ni negado.

Por otro lado, Sedighi & Farahani Fard (2019) proponen en su investigación un nuevo modelo híbrido que utiliza el algoritmo de colonia artificial de abejas (ABC), el sistema de inferencia neuro-difuso adaptativo (ANFIS) y un vector de soporte de máquina (SVM) con el objetivo de lograr un enfoque más preciso que los métodos anteriores.

Otros autores que ponen el énfasis en este punto son Bohorquez, & Quimbayo (2018); ellos aclaran que en la fase inicial se emplea el ABC para optimizar los indicadores técnicos de las herramientas de pronóstico. Posteriormente, en la segunda etapa, se lleva a cabo la implementación del ANFIS para predecir el precio futuro de las acciones. En la tercera etapa, se ha utilizado la SVM para el preprocesamiento de datos a través de la codificación, seguido de la normalización de los datos. El módulo SVM se ha utilizado para generar señales de trading (Compra / Venta / Retención / Neutral).

En resumen, el análisis computacional ha demostrado que el enfoque ABC-ANFIS-SVM es el más eficiente para predecir el precio de las acciones y podría ser aplicado en otros desafíos relacionados con la predicción financiera.

Según los autores, el modelo propuesto para la predicción del precio de las acciones demuestra una eficacia superior en comparación con investigaciones previas. No obstante, existen dos enfoques que podrían mejorar la funcionalidad del modelo. En primer lugar, se sugiere optimizar los parámetros del modelo a través de ajustes más detallados y sensibles de las variables, lo cual podría ser objeto de estudios futuros para otros investigadores. En segundo lugar, se podría considerar la inclusión de variables complementarias o alternativas como insumos del modelo, tales como los tipos de cambio o las tasas de interés, entre otros.

Según los hallazgos de la evaluación del modelo y su rendimiento, Sedighi et al. (2019) determinan que han alcanzado los objetivos de la investigación. Sin embargo, se identificaron dos limitaciones que influyen en los precios de las acciones. Además de los factores técnicos, existen otros dos factores importantes que pueden impactar los precios de las acciones: factores fundamentales y el sentimiento del mercado.

METODOLOGÍA

Se emplearon los precios históricos diarios desde hace un año hasta la fecha presente de los índices NASDAQ, S&P500 e IPC. Se seleccionaron 10 acciones de estos índices que han mostrado el mayor rendimiento en los últimos años, las cuales son: Alpek, Apple, Berkshire Hathaway Inc, Femsa, Google, Inbursa, Johnson & Johnson, Microsoft, Visa y Walmart. Con estas acciones se procedió a la elaboración de un portafolio y a la realización de predicciones. Para la obtención de datos, se recurrió a las páginas web de “Bloomberg” y “Yahoo Finance”, reconocidas por su fiabilidad en la información financiera histórica. Asimismo, fueron consultados los informes anuales de la BMV y la base de datos EMIS (CUCEA). Para la creación del portafolio y la predicción de precios futuros, se utilizaron los softwares MATLAB, Python y Excel.

PSO

  1. 1. Se analizaron los retornos diarios de las acciones de las 10 empresas seleccionadas.

    Se generó una nube de carteras utilizando MATLAB con ponderaciones aleatorias de las 10 acciones.

    Se utilizó un enjambre de partículas para descubrir la cartera óptima de forma aleatoria, considerando que se encuentre en la frontera eficiente con el menor nivel de riesgo posible.

    Cada partícula fue entrenada para desplazarse por todo el espacio de la nube de carteras y alcanzar la frontera eficiente. La cartera con la mayor cantidad de partículas posicionadas sobre ella será la cartera seleccionada.

    Se obtuvo el resultado gráficamente de la nube de carteras y se verificó que si cumple con el criterio de riesgo mínimo posible y si se sitúa visualmente en la frontera eficiente.

Perceptrón multicapa

  1. 1. Se analizó el desempeño diario de las acciones de las 10 empresas seleccionadas.

    Se implementó un modelo ARIMA para contrastar su capacidad predictiva con la del algoritmo.

    Se desarrolló la red neuronal utilizando las mismas variables dependientes.

    Donde se utilizó el 90% de los datos para el entrenamiento de los modelos y el resto para la prueba.

    Se realizaron pruebas estadísticas Durbin-Watson y R2 para identificar las variables más sólidas y significativas para los modelos.

    Se estableció el número de neuronas, tasas de aprendizaje y constante de momento.

    Se compararon las predicciones de ambos modelos y se contrastaron utilizando medidas estadísticas.

DESARROLLO

Tabla 1
Empresas seleccionadas como muestra del análisis
Empresas seleccionadas como muestra del análisis
Muestra de análisis obtenida de las bolsas de valores de Estados Unidos y México (NASDAQ, S&P500 e IPC) el año 2023.

RESULTADOS

Se tomó en cuenta una red neuronal de 10 capas para la creación de todos los modelos, con el fin de pronosticar los precios futuros de los próximos 10 días, utilizando los datos de entrenamiento proporcionados. La variable principal de cada modelo fueron los pesos ("Weights"), los cuales son calculados automáticamente por la red neuronal para encontrar aquellos que se ajusten de la mejor manera a la serie de tiempo. A continuación, se presenta la fórmula utilizada en el desarrollo de dicho modelo.

[Resultados]

Se llevó a cabo un segundo enfoque, el cual consistió en la creación de un modelo adicional para poder comparar las diferentes empresas de la muestra. En la construcción de este modelo se emplearon diferentes órdenes de ARIMA (p,d,q) para cada serie temporal. Asimismo, se realizaron pruebas de hipótesis de Dickey-Fuller para verificar que la serie no sea estacionaria, que presente temporalidad y que los rezagos sean óptimos para cada modelo.

Resultados de los errores de ajuste de modelo del perceptrón multicapa y ARIMA

Los resultados del modelo utilizado se muestran a continuación en las tablas 2, 3 y 4 así como en la gráfica 1, los datos obtenidos se muestran en orden de importancia según el análisis antes mencionado, lo que nos permite ver claramente como se desarrolló cada uno de los mercados en el estudio.

Tabla 2.
Error absoluto medio (MAE), error cuadrático medio (RMSE) y R2 de ambos modelos para cada serie de tiempo.
Error absoluto medio (MAE), error cuadrático medio (RMSE) y R2 de ambos modelos para cada serie de tiempo.
Elaboración propia con el software “Python” con datos obtenidos de los modelos realizados el año 2023.

Resultados de los errores del pronóstico de 10 días del perceptrón multicapa y ARIMA

Para encontrar la eficacia de los pronósticos de los modelos es necesario calcular los errores estadísticos, los cuales son el error absoluto medio (MAE), error cuadrático medio (RMSE) y el coeficiente de determinación (R2). El MAE es la sumatoria de las diferencias del precio real contra el pronóstico, dividido entre el número de datos. El resultado es el error promedio que existe entre ambos precios, solo es comparable con el mismo activo que se esté evaluando.

El RMSE es también la sumatoria de las diferencias del precio real contra el pronóstico, solamente que se eleva al cuadrado y saca raíz para eliminar valores negativos. Su resultado es el error promedio entre ambos precios y en cuanto sea menor, mejor será el pronóstico de los datos reales. Por último, está la R2 que es la proporción de la varianza del modelo contra la varianza del precio real, lo cual se interpreta como la bondad que existe entre el modelo y el precio. Su valor va de 0 a 1, donde 1 es el mayor ajuste posible del modelo y 0 significa que no existe explicación alguna.

Tabla 3.
Error absoluto medio (MAE) y error cuadrático medio (RMSE) de ambos modelos para cada serie de tiempo.
Error absoluto medio (MAE) y error cuadrático medio (RMSE) de ambos modelos para cada serie de tiempo.
elaboración propia con el software “Python” con datos obtenidos de los modelos realizados el año 2023.

Resultados de la optimización de portafolios con el método PSO

Nube de Portafolios de Markowitz.
Gráfica 1
Nube de Portafolios de Markowitz.
elaboración propia con el software “Matlab” con datos obtenidos de Yahoo Finanzas el año 2023.

En la gráfica 1, se puede ver que la optimización de la selección del portafolio con la teoría de Markowitzs con el modelo PSO fue exitosa. Ya que se puede observar los diez mil portafolios posibles que corresponden a los puntos “azules” que se encuentran a la derecha, que son generados aleatoriamente con diferentes valores de participación por cada una de las 10 acciones seleccionadas en la muestra. Los puntos “verdes” son las partículas que están buscando el portafolio con mayor rendimiento que, a su vez, pueda cumplir con el mínimo de riesgo posible para el inversionista.

Si se traza una línea sobre los portafolios que se encuentran la parte superior de la nube, se puede observar cómo esta agrupada la frontera eficiente, que está conformada por los portafolios que a un mismo nivel de riesgo también obtienen el máximo de rendimiento posible. En ese portafolio se encontraron las partículas con dichos parámetros y están señalados con una “cruz roja” en la gráfica 1.

Tabla 4.
Porcentajes de participación de cada empresa del portafolio óptimo.
Porcentajes de participación de cada empresa del portafolio óptimo.
elaboración propia con el software “Python” con datos obtenidos de los modelos el año 2023.

CONCLUSIONES

Con el uso del perceptrón multicapa se logró obtener un coeficiente de determinación (R2) aceptable en la mitad de los modelos generados, sin embargo, en el resto se obtuvo una baja determinación en la relación entre el precio real y el pronóstico. Además, se observó un error absoluto medio considerable y un error cuadrático medio en todas las series, excepto en el caso de la acción de Google. Estos resultados se detallan en la tabla 1. En resumen, al evaluar los datos de un año, no se logró una aproximación precisa con este modelo.

Los modelos ARIMA son una excelente opción para analizar series de tiempo continuas, esta afirmación se respalda con los resultados de la tabla 2, donde el coeficiente de determinación (R2) muestra valores superiores a 0.95 en todos los casos, lo que indica un ajuste casi perfecto. Asimismo, los errores del modelo son significativamente menores en comparación con los del perceptrón multicapa.

Los modelos ARIMA mostraron un rendimiento superior al entrenar con datos reales de un año, sin embargo, al predecir 10 días hacia adelante, el perceptrón multicapa presentó menos error en 6 de las 10 acciones. Esta información se puede verificar en la tabla 3, donde la red neuronal demostró una mayor eficiencia al predecir Alpek, Apple, Inbursa, Johnson & Johnson, Microsoft y Walmart.

En consecuencia, el modelo de perceptrón multicapa demostró una capacidad predictiva superior en más de la mitad de las diez empresas analizadas. A diferencia de los modelos ARIMA, que requieren un proceso más complejo para su desarrollo, incluyendo pruebas de hipótesis como la de Dickey-Fuller, la creación de diferencias en los precios para asegurar la no estacionariedad de la serie, y análisis de temporalidad, es notable que el perceptrón multicapa haya ofrecido una mejor aproximación. Esto se debe a que su estructura se basa en una red neuronal de diez capas, donde las variables de "pesos" se ajustan en función del aprendizaje obtenido durante el entrenamiento de la red. En resumen, la creación de este modelo resultó ser más sencilla y se aplicó a las diez acciones, siendo la única variación los datos de entrada, que consistieron en los precios utilizados para generar el pronóstico.

Es importante señalar que el objetivo de esta investigación fue realizar una comparación entre el perceptrón multicapa y un modelo robusto como el ARIMA. Una comparación con un modelo de regresión lineal no proporcionaría la eficiencia necesaria y sería más sencillo obtener un pronóstico superior en relación con dicho modelo. Por otro lado, la optimización de la selección de portafolios utilizando la teoría de Markowitz junto con el modelo PSO resultó ser exitosa. En la gráfica 1 se pueden observar los diez mil portafolios posibles representados por los puntos “azules”, los cuales son generados de manera aleatoria con diferentes proporciones de inversión en cada una de las 10 acciones. Los puntos “verdes” representan las partículas que están en búsqueda del portafolio que ofrezca el mayor rendimiento, cumpliendo al mismo tiempo con el mínimo riesgo posible.

Se puede trazar una línea sobre los portafolios que se extienden hasta la parte superior de la nube, lo que se conoce como la frontera eficiente, que son todos los portafolios que, a un mismo nivel de riesgo, obtienen el máximo rendimiento posible. El portafolio que las partículas encontraron con esos parámetros es el que está marcado con una "cruz roja" en el gráfico 1 y el porcentaje de participación de cada empresa en el portafolio se encuentra en la tabla 4.

Finalmente, el método de inteligencia artificial perceptrón multicapa resultó ser un modelo eficiente para predecir acciones utilizando precios históricos. También el método de enjambre de partículas para la optimización de portafolios, ya que resulta difícil calcular la varianza y la desviación estándar de portafolios con cinco activos o más en hojas de cálculo. Por lo tanto, el resultado con esta metodología es exitoso (Dow, 1960).

En conclusión, los hallazgos sugieren que la inteligencia artificial puede ser vista como una herramienta confiable por parte de los inversionistas y gestores de fondos de inversión, ya que les permite mejorar su análisis de decisiones y aumentar sus rendimientos. Además, les brinda la posibilidad de seleccionar la combinación óptima de activos en sus carteras, de acuerdo a los parámetros deseados, ya sea maximizando el rendimiento o minimizando el riesgo.

BIBLIOGRAFÍA

Bohorquez, A., Vega, C., & Quimbayo, C. (2018). Optimización de estrategias de trading con promedios móviles para futuros de petróleo mediante algoritmos genéticos.

Códigos “Jel” UNAM (2024), Repositorio Universitario, Instituto de Investigaciones Económicas, https://ru.iiec.unam.mx/view/subjects/

Dow, C. H. (1960). The Dow Theory. New York: Appleton-Century-Crofts.economía, T. (2020). ¿Qué es el análisis de regresión? Retrieved from https://tueconomia.net/economia/regresion-lineal/

Fama, E. (1970). Efficient capital markets: A review of theory an empirical work. Journal of Finance, 25, 383-417.

González, E. R. (2019). 1894, año en el que se fundó la Bolsa Mexicana de Valores. Retrieved from https://blog.bmv.com.mx/2019/08/1894-ano-en-el-que-se-fundo-la-bolsa-mexicana-de-valores/

Markowitz, H. (1952). Portfolio Selection. The Journal of Finance, 7(1), 77-91. doi:https://doi.org/10.1111/j.1540-6261.1952.tb01525.x

Aragón Bohorquez, A, Mejía Vega, C y Zapata Quimbayo, C. (2019). Optimización de estrategias de trading con promedios móviles para futuros de petróleo mediante algoritmos genéticos. (Núm. 15, Año 2018 : Julio-Diciembre). Facultad de Finanzas, Gobierno y Relaciones Internacionales.

Pakdel, A. (2017). Selecting optimal portfolio using particle swarm optimization algorithm. Ardabil, Iran.

Quintana, D., & Isasi, P. (2007). Predicción del rendimiento inicial en mercados segmentados mediante redes de neuronas. Economía y Administración, 44(68), 7-23. Retrieved from http://ezproxy.iteso.mx/login?qurl=http%3a%2f%2fsearch.ebscohost.com%2flogin.aspx%3fdirect%3dtrue%26db%3da9h%26AN%3d35844906%26lang%3des%26site%3dehost-live%26scope%3dsite

Rodrigo, J. A. (2019). Optimización con enjambre de partículas (Optimization). Retrieved from https://www.cienciadedatos.net/documentos/py02_optimizacion_pso

Russell, S. J., & Norvig, P. (2021). Artificial intelligence: a modern approach (Fourth edition. ed.). Hoboken: Pearson.

Sarkar, S. (2020). Time Series Forecasting and Analysis: ARIMA and SEASONAL-ARIMA. Retrieved from https://medium.com/analytics-vidhya/time-series-forecasting-and-analysis-arima-and-seasonal-arima-cacaf61ae863

Sedighi, M., Jahangirnia, H., Gharakhani, M., & Farahani Fard, S. (2019). A Novel Hybrid Model for Stock Price Forecasting based on Metaheuristics and Support Vector Machine. Data, 4(2), 75. Retrieved from https://www.mdpi.com/2306-5729/4/2/75

Modelo de publicación sin fines de lucro para conservar la naturaleza académica y abierta de la comunicación científica
HTML generado a partir de XML-JATS4R