VALIDACIÓN DE UN ALGORITMO HÍBRIDO DEL PSO CON EL MÉTODO SIMPLEX Y DE TOPOLOGÍA DE EVOLUCIÓN PARAMÉTRICA
Palabras clave:
Optimización sin restricciones, métodos heurísticos, métodos estocásticos. (es)VALIDACIÓN DE UN ALGORITMO HÍBRIDO DEL PSO CON EL MÉTODO SIMPLEX Y DE TOPOLOGÍA DE EVOLUCIÓN PARAMÉTRICA
VALIDATION OF A PSO-SIMPLEX HYBRID ALGORITHM OF PARAMETRIC EVOLUTION TOPOLOGY
RODRIGO CORREA
Escuela de Ingenierías Eléctrica, Electrónica y de Telecomunicaciones,Universidad
Industrial de Santander, crcorrea@uis.edu.co
OSCAR BEGAMBRE
Escuela de Ingeniería Civil, Universidad Industrial de Santander, ojbegam@uis.edu.co
JULIO C. CARRILLO E.
Escuela de Matemáticas, Universidad Industrial de Santander, jccarril@uis.edu.co
Recibido para revisar enero 17 de 2009, aceptado marzo 2 de 2010, versión final abril 12 de 2010
RESUMEN: Este artículo describe algunos de los aspectos más importantes relacionados con la experimentación numérica de un híbrido del algoritmo PSO (Particle Swarm Optimization) con el tradicional método simplex modificado de Nelder-Mead. El híbrido de estas dos técnicas de optimización sin restricciones se realizó con una topología que permite optimizar en cada iteración los parámetros del algoritmo PSO utilizando el método simplex modificado. Se realizaron experimentos numéricos con este algoritmo híbrido aplicados a varias funciones de prueba típicas para establecer su efectividad. Los resultados obtenidos se compararon con los del método simplex y el método cuadrático, los cuales resultaron ser muy satisfactorios desde el punto de vista de su repetibilidad y reproducibilidad, aunque el tiempo de cómputo fue considerablemente mayor. Se resalta, sin embargo, que la precisión del algoritmo híbrido fue del cien por ciento en todos los ensayos para las funciones de prueba seleccionadas.
PALABRAS CLAVE: Optimización sin restricciones, métodos heurísticos, métodos estocásticos.
ABSTRACT: This paper describes some of the most important aspects related to the numerical experimentation of a hybrid of the algorithm PSO (Particle Swarm Optimization) with the traditional modified simplex method of Nelder-Mead. The hybridization of these two techniques of optimization without restrictions was carried out with a topology that allows to optimize in each iteration the parameters of the algorithm PSO using the modified simplex method. Numerical experiments with this hybrid algorithm were carried out and applied to several of typical test functions to establish its effectiveness. The results obtained were compared with the simplex and the quadratic methods, which turned out to be very satisfactory since the point of view of their repeatability and reproducibility, although the time of computation was considerably longer. It stands out itself, nevertheless, that the precision of the hybrid algorithm was a hundred percent in all the trials for the test functions selected.
KEYWORDS: Optimization without restriction, heuristic methods, stochastic methods.
1. INTRODUCCIÓN
En la actualidad se disponen de algoritmos capaces de resolver problemas de optimización cada vez más complicados. Una buena parte de estos algoritmos se fundamenta en teorías heurísticas que plantean novedosas formas de buscar la solución de tales problemas mediante métodos no rigurosos, como por ejemplo, por tanteo, reglas empíricas y analogías naturales, entre otras. La contrapartida formal en computación de este tipo de métodos es el algoritmo, por lo que reciben el nombre de algoritmos heurísticos. Un algoritmo heurístico comprende un conjunto de pasos que se deben realizar para identificar en el menor tiempo posible una solución de alta calidad para un determinado problema de optimización. De otro lado, un algoritmo metaheurístico es una estrategia de alto nivel que fusiona sinérgicamente dos o más heurísticas para buscar soluciones factibles en dominios donde la tarea es compleja. Entre las técnicas (los algoritmos) metaheurísticas más conocidas se encuentran la de colonia de hormigas, la búsqueda Tabú, de búsqueda local, la simulación del templado, los algoritmos genéticos y el enjambre de partículas. Las ventajas del uso de los algoritmos heurísticos se hacen evidentes cuando no existe una solución matemática simple a las ecuaciones que definen el problema tratado, cuando hay incertidumbre de los datos y cuando existen múltiples puntos óptimos en problemas de optimización no lineal. Además, también se deben considerar las facilidades de formulación y programación de este tipo de algoritmos, y tener en cuenta las capacidades de uso más eficiente de un procesador. Es de notar que los algoritmos heurísticos son independientes de la estimación del punto de partida, lo cual permite garantizar de cierta manera su convergencia, y que además están adaptados para encontrar soluciones globales. En comparación con los métodos basados en gradientes o derivadas de segundo orden, la principal desventaja de estos algoritmos radica en que necesitan un mayor número de evaluaciones de la función objetivo para encontrar una solución óptima, aspecto que incrementa notablemente su tiempo de ejecución. De otro lado, los métodos clásicos son mucho más susceptibles a converger a óptimos locales que los algoritmos heurísticos, siendo no recomendable emplearlos en problemas no lineales con múltiples puntos óptimos. Adicionalmente, los métodos clásicos son altamente sensibles a la presencia de ruido, debido a que los gradientes usados dependen de cualquier error en la medición o en el modelado. En la Tabla 1 se presenta una comparación entre estos métodos (ver [1]-[3]). Con el híbrido propuesto en este artículo se espera darle una mayor robustez y precisión al PSO convencional.
Tabla 1. Comparación entre los métodos de optimización heurísticos y los clásicos
Table
1. Comparison among heuristic and classic optimization methods
2. FUNDAMENTOS
El método simplex es uno de los métodos clásicos más comunes para resolver problemas de optimización sin restricciones (ver [4] para una descripción detallada). A continuación se describen algunos de los aspectos más relevantes de la versión convencional del algoritmo de enjambre de partículas PSO y de su híbrido con el método simplex, el algoritmo PSOSX.
2.1. El algoritmo PSO convencional
Esta
técnica metaheurística evolutiva, inspirada en el comportamiento social de las
bandadas de pájaros, fue propuesta por primera vez por Kennedy y Eberhart en
1995 (ver [5]) y hace parte de una categoría más amplia de métodos, conocidos
como inteligencia de enjambre (swarm intelligence),
utilizados para resolver problemas de programación no lineal. El algoritmo parte de la hipótesis de que cada
partícula
(o punto dentro del dominio de la función objetivo que se propone como posible
solución) se lanza a volar en el espacio de búsqueda guiadas por la partícula
que mejor solución ha encontrado hasta el momento y que cumple con la función
de líder de la bandada. Las partículas evolucionan teniendo en cuenta la mejor
solución encontrada en su recorrido y la del líder. A continuación se presenta la
fundamentación del algoritmo desde el punto de vista de la mecánica Newtoniana,
que no fue precisamente su interpretación inicial. Si la posición en el espacio
de una partícula, o elemento de un conjunto o enjambre, de masa se expresa mediante el
vector
de
dimensiones, entonces su
velocidad queda definida como
.
De
la segunda ley de Newton se llega a que la aceleración de la partícula y la
fuerza
que actúa sobre ella están relacionadas de la forma
.
Si
se evalúan estas dos primeras derivadas mediante diferencias finitas y se
despejan y
, siendo t un
entero positivo que identifica la iteración, se tiene que
,
.
Considerando la masa y el paso de tiempo unitarios se llega a las expresiones,
,
.
En
este caso la fuerza se puede representar
como una fuerza de atracción generada por resortes lineales, de la forma
,
en
donde y
representan la mejor
posición encontrada por la partícula y la mejor posición global encontrada por
todas las otras partículas, respectivamente. En su interpretación mecánica, los
dos términos en (7) representan la dirección y longitud de dos resortes, siendo
las constantes
y
las constantes de
Hooke (ver [6]). Resumiendo, las dos
expresiones que condensan el algoritmo PSO original quedan como
,
.
Si
bien estas dos ecuaciones vectoriales describen el comportamiento de una
partícula en forma determinística, la notación matricial involucrará todo el
enjambre, por lo cual se asume que existen partículas en un
espacio de dimensión
. De esta manera, cada una de las variables quedará almacenada
en matrices de orden
. Ahora bien, dado que se trata de modelar un sistema natural,
debe existir un cierto grado de aleatoriedad que se manifieste en el algoritmo.
El proceso iterativo definido por el anterior sistema de ecuaciones matriciales
establece una base de la forma como cada partícula utiliza el conocimiento
cognitivo
y el social
para explorar el
espacio de solución, pero de una manera determinística. En otras palabras, una
vez el enjambre se inicializa, las trayectorias y posiciones finales de todas
las partículas quedan definidas por estas expresiones. Sin embargo, en procesos
que tratan de imitar la impredecible naturaleza se adapta el comportamiento del
enjambre a diferentes ambientes al implementar factores estocásticos en el
algoritmo. Esto se logra al multiplicar las constantes de Hook en (7) por
sendos coeficientes aleatorios
y
, que son escalares con una distribución uniforme en el
intervalo
, o bien, son vectores con sus componentes distribuidos
uniformemente en el mismo intervalo.
Así
mismo, con el propósito de incrementar la convergencia del enjambre se propone
desde un inicio un factor de peso inercial , variable en el tiempo, como en ([5], [7]). Un valor típico para
este factor es
al inicio del proceso
de optimización, y va decreciendo hasta
al final del proceso. Igualmente
reportan que los parámetros
y
mantienen un valor
constante e igual a dos, argumentando condiciones de convergencia. Así, con la
actualización de la matriz de velocidad, las partículas evolucionan de acuerdo con
el siguiente conjunto de ecuaciones matriciales, quedando de esta manera el
algoritmo PSO original de la forma
,
Dado
que en las aplicaciones prácticas las fronteras del espacio de solución están
usualmente definidas por las limitaciones geométricas, cualquier partícula
fuera de estos límites no solamente conducirá a una solución sin significado
físico, sino que también afectará en forma adversa el proceso de optimización.
Para prevenir que cualquier partícula se salga de la solución de una manera
frecuente se sugirió, desde el inicio de su desarrollo, que la velocidad máxima
tuviera un valor de veces el rango
dinámico en cada dimensión de la partícula. Por ejemplo, si una variable está
restringida dentro del intervalo
, la máxima velocidad en esta dimensión debe ser en el rango
dinámico
en ambas direcciones. Otros
autores sugieren una técnica para la definición de las condiciones de frontera
clasificándolas como paredes o límites absorbentes, reflectivas e invisibles
(ver [7]-[9]). Cuando una partícula se aproxima a una frontera absorbente su
velocidad en la dimensión asociada es completamente absorbida por la frontera y
se convierte en cero. En la siguiente interacción, la partícula únicamente se
mueve en otra dimensión y es mantenida en el espacio de soluciones. Cuando la
partícula toca una frontera reflectiva la velocidad se invierte en lugar de
hacerse cero. La partícula reflejada permanece en el espacio de soluciones y
está disponible para la siguiente evaluación en la función objetivo. En la
condición de frontera invisible a la partícula se le permite pasar a través de
la frontera manteniendo su propia velocidad original. Para evitar la
contaminación de la información se le adjudica directamente un valor de bondad de
ajuste erróneo a esta partícula, sin que se haya realizado la evaluación de la
función objetivo. En [8] se demuestra que el costo computacional se reduce y
que estas condiciones de fronteras invisibles ayudan a la convergencia del
algoritmo. En literatura más reciente, se proponen algunas otras técnicas de
manejo de las condiciones de frontera, tales como las denominadas condiciones
de frontera híbridas amortiguadas. En ellas se utilizan las características
positivas de las condiciones de frontera absorbentes y reflectivas simultáneamente
(ver [9] y [10]).
Los
parámetros cognitivo y social
controlan el flujo de
información dentro del enjambre. Si
entonces la partícula
va a confiar más en los resultados de
la búsqueda del enjambre que en los propios. En caso contrario, esto es cuando
, la partícula va a tener más confianza en los resultados de su búsqueda que en los del resto del
enjambre. Estos aspectos se ilustran en las Figuras 1 y 2, utilizando como
ejemplo la función de Venter,
,
la
cual alcanza el mínimo global en el punto de
coordenadas
. A manera de ejemplo, en la Figura 1 se muestra una secuencia de las iteraciones del
algoritmo PSO cuando
. Se observa que todas las partículas del enjambre convergen
al mínimo global conforme crece el número de iteraciones. Caso contrario sucede
cuando
, observándose que al final existen partículas alejadas del
enjambre debido a la confianza que
tienen en su búsqueda, a pesar de lo cual el algoritmo converge al óptimo
global.
Figura 1. Comportamiento del enjambre cuando . El recuadro A
corresponde a la primera iteración, B a la número
10, C a la 20, D a la 30, E a la 40 y F a la iteración final
Figure
1. Swarm's behavior when . Graph A corresponds
to the first iteration, B to number 10, C to 20, D to 30, E to 40 and F to the final iteration
Figura 2. Gráfica de la función de
Venter
Figure 2. Venter's function graph
El factor de inercia controla la influencia
de la velocidad previa de la partícula sobre la velocidad actual. Un factor de
inercia alto facilita la exploración global del espacio de búsqueda, mientras
que un valor pequeño posibilita realizar una búsqueda local. Es posible reducir
el número de iteraciones del algoritmo PSO al encontrar un equilibrio entre las
capacidades de búsqueda local y de búsqueda global del algoritmo. Con el fin de
mantener éste equilibrio usualmente se utiliza un rango de valores para estos parámetros. A pesar de los
valores guías reportados en la literatura, la escogencia de estos parámetros
depende de las particularidades del problema a resolver, por lo cual se deben realizar pruebas exhaustivas para
encontrar el mejor conjunto de parámetros que garanticen el éxito de la
búsqueda del algoritmo PSO en cada caso, dado que valores inadecuados de ellos
pueden causar fallas en la convergencia del algoritmo. De otro lado, existen
modificaciones posteriores a este algoritmo original, como la propuesta por
Clerc [11], quien propuso la adición de otro coeficiente que garantice la
convergencia del algoritmo. Esta modificación generó el algoritmo conocido hoy
día como algoritmo PSO de convergencia garantizada (GCPSO). En el presente
artículo se utilizará el algoritmo PSO convencional.
2.2. Algoritmo
PSOSX de evolución paramétrica
Este algoritmo híbrido se desarrolla con el fin de
incorporar una estrategia de búsqueda autoconfigurada de forma tal que se
garantice un conjunto cuasi óptimo de
parámetros del algoritmo PSO que aseguren el éxito en la búsqueda
independientemente de las particularidades del problema estudiado [12-13]. La idea central de esta topología es hallar
mediante el método simplex los mejores valores de los parámetros ,
,
y
contenidos en el espacio de parámetros, de modo que asegure una configuración cuasi óptima para que el algoritmo PSO realice la evaluación de la función objetivo en cada iteración. Dentro de esta
heurística, cada vértice del método simplex queda definido por las coordenadas
,
,
y
. En este punto, el algoritmo PSO toma los valores de estos
parámetros heurísticos y valida la función objetivo del problema de acuerdo a
las ecuaciones (10) y (11) (ver [5], [11], [12]). A este esquema o topología de
interacción del algoritmo PSO con el método simplex lo hemos denominado algoritmo PSOSX de evolución paramétrica.
Otro esquema de interacción alternante entre ellos se describe en detalle en
[13] y [14]. Para cada punto encontrado por el método simplex
producto de cualquier reflexión, contracción, expansión o reducción, se valida
por un enjambre independiente, caracterizado por el vector
,
, en donde
es el número de
parámetros del algoritmo PSO y
es un número entero
que representa el tamaño del enjambre. Esta última variable fue incluida con la finalidad de estimar su
valor óptimo. Tal topología mejora las capacidades de
búsqueda del algoritmo PSOSX e independiza los parámetros heurísticos, debido
a que realiza una búsqueda dirigida por parámetros cuasi óptimos de forma automática.
3. EVALUACIÓN EXPERIMENTAL Y ANALISIS DE RESULTADOS
Uno de los objetivos de este artículo es mostrar el desempeño del algoritmo PSOSX frente al método de optimización cuadrático y el método simplex, dos de los métodos numéricos de optimización de uso más frecuente en ingeniería. Debido a los buenos resultados entregados por el método de optimización cuadrático, este se ha convertido casi en un estándar, por lo que se usará para medir los resultados y las características del nuevo algoritmo híbrido PSOSX. Además, se confrontarán estos resultados únicamente con los del método simplex (Nealder-Mead). Como criterios de evaluación de los algoritmos se tendrán en cuenta la precisión, la exactitud y el costo computacional.
Con el fin de explorar las capacidades del algoritmo PSOSX en diferentes tipos de problemas se evaluaron ecuaciones en tres dimensiones que a la fecha se destacan como pruebas de rigor difíciles para cualquier procedimiento de optimización. En cada caso el método se evaluó 200 veces y los resultados se compararon con los respuestas obtenidas por algoritmos de gran precisión como lo son: algoritmo cuadrático (ejecutado con la función de MATLABMR quadprog), algoritmo simplex (ejecutado con la función de MATLABMR fminsearch) y método quasi-Newton (ejecutado con la función de MATLABMR fminunc) [17]. Para las simulaciones se utilizó un computador DELLMR con procesador Intel Centrino DuoTM, 1GHz en memoria RAM y con sistema operativo WindowsMR XP.
Función Cuadrática: La primera prueba con la que se evaluó el algoritmo PSOSX fue en la búsqueda del mínimo global de una función cuadrática,
en donde ,
y
son números reales
dados y tales que
. Para este tipo de función el método de optimización
cuadrática ha mostrado gran robustez en la búsqueda del óptimo global, razón
por la que su aplicación se ha convertido casi en regla para el diseño de
sistemas de control predictivos. La principal desventaja de su uso en otras
áreas es que no todos los procesos se rigen por una función cuadrática,
debiéndose ajustar la función objetivo del problema a una función de este tipo.
En la mayoría de los casos se debe segmentar el dominio de la función objetivo
y encontrar varios ajustes para cada segmento del dominio de forma que se pueda
realizar una aproximación más exacta. Para aplicar el método cuadrático es
necesario reescribir (13) en la forma matricial
,
pudiendo tener restricciones de la forma , donde
es la matriz Hessiana
de la función a minimizar,
es la matriz de
restricciones y
y
son vectores. En las Tablas 2 y 3 se presentan un análisis estadístico elemental de los resultados
obtenidos con el algoritmo PSOSX, y de solamente el método simplex y el método
cuadrático.
Tabla 2. Análisis
estadístico de los resultados de la evaluación de la función cuadrática para
Table 2. Statistic Analysis of
quadratic function evaluation results for
Tabla
3. Análisis estadístico de los resultados de la
evaluación de la función cuadrática para
Table 3. Statistic Analysis of
quadratic function evaluation results for
Es posible observar que el método cuadrático ofrece una excelente precisión en sus resultados al lograr una desviación estándar igual a cero. Por su parte el algoritmo PSOSX muestra una precisión aceptable logrando una desviación estándar de 2,177E-09, mientras que el método simplex presenta una desviación estándar igual a 9,162E- 10. A pesar de mostrar excelentes resultados, la gran desventaja de usar el método cuadrático radica en la limitación que tiene al ser aplicado exclusivamente a funciones cuadráticas, lo que hace necesario que en cada problema se realice una aproximación de la función objetivo mediante una función que satisfaga (14).
Adicionalmente,
el algoritmo PSOSX alcanza el de exactitud en todos
los casos de búsqueda, mostrando su efectividad a la hora de hallar el óptimo
global de una función cuadrática. A pesar del mayor tiempo de cálculo en la
ejecución que necesitó el algoritmo PSOSX respecto a sus competidores, debido
principalmente a que los métodos heurísticos necesitan evaluar un mayor número de veces la función objetivo; su uso en problemas con funciones
complejas se resume a procedimientos de búsqueda sencillos, de gran robustez y
con un
de efectividad en
todos los casos probados, como se mostrará también con otras funciones.
Primera función de prueba: Con esta función se evalúa la capacidad de búsqueda del algoritmo en problemas con superficies regulares donde la pendiente de la zona que aloja el óptimo global es muy pequeña y se hace difícil identificar con exactitud este punto. Esta función se define de la forma
,
Esta
función alcanza su mínimo global en el punto de coordenadas
. La Tabla 4 reúne el análisis estadístico de los resultados.
Tabla 4. Análisis estadístico de los resultados de la
evaluación de la función Test 1 para
Table 4. Statistic Analysis of Test
1 function evaluation results for
Con esta función de prueba queda demostrada la exactitud y precisión de los métodos usados, sin embargo, se nota una diferencia importante en los tiempos de ejecución de los métodos simplex y quasi-Newton con respecto al algoritmo PSOSX. Se evaluó esta misma función en diferentes dominios de las variables independientes y se encontró que la exactitud de los métodos en este caso se mantiene intacta, puesto que la función carece de otros puntos críticos a largo de su recorrido. Esta información no se incluye.
Segunda función de prueba, la función de Rosenbrock: Esta función dibuja
un valle en curva cuyo fondo desciende con un declive muy suave hacia el mínimo
global que alcanza en el
punto de coordenadas
. La
función de Rosenbrock se define como
.
Aquí comienzan a aparecer las fortalezas del algoritmo PSOSX. La más evidente de ellas, en este caso, es su robustez a la hora de tratar el problema en diferentes espacios de búsqueda garantizando el óptimo valor en las coordenadas exactas en todos los problemas, mientras que los otros métodos presentaron resultados deficientes en este aspecto. Por otra parte, el tiempo de ejecución continúa siendo el talón de Aquiles del algoritmo PSOSX. Las Tabla 5 muestra algunos de los resultados obtenidos en los experimentos.
Tabla 5. Análisis estadístico de los resultados de la
evaluación de la función Rosenbrock para
Table 5. Statistic Analysis of
Rosenbrock's function evaluation results for
Se observa que los métodos numéricos necesitan que su espacio de búsqueda esté
restringido a un perímetro muy cercano alrededor del óptimo para obtener
resultados confiables. A continuación se mostrará que en funciones con relieve
escabroso y numerosos mínimos locales
se hace más evidente este problema, lo que permite que el PSOSX ofrezca resultados confiables a cambio del sacrificio en lo que a tiempos de ejecución se refiere.
Tercera
función de prueba, la función de Venter: Con el objetivo de medir
las capacidades de búsqueda del algoritmo PSOSX en problemas con múltiples
máximos y mínimos, se propone esta función que posee aproximadamente 300
mínimos locales como se muestra en la Figura 2. El mínimo global 100 lo alcanza el punto de coordenadas . El mayor reto que enfrentaran los algoritmos en esta prueba
será el de evitar caer prematuramente
en un mínimo local. La Tabla 6 muestra los resultados estadísticos para un
primer dominio.
Tabla
6. Análisis
estadístico de los resultados de la evaluación de la función de Venter para
Table 6. Statistic Analysis of Venter's
function evaluation results for
Note que a pesar de lo reducida que se encuentra la zona de búsqueda los resultados de los métodos numéricos no ofrecen la completa exactitud que sí puede ofrecer el algoritmo híbrido PSOSX, no obstante se mantiene la ventaja que los primeros tienen sobre el segundo, en lo que a tiempos de ejecución se refiere.
Se observa que no sólo se ve comprometida la exactitud de los métodos
numéricos sino también que la precisión
de los algoritmos es bastante baja; por otra parte, el algoritmo híbrido PSOSX
ofrece resultados confiables y un
desempeño robusto, proporcionándole un valor agregado a cada segundo adicional
que invierte en realizar la búsqueda.
Cuarta función de prueba, la función de Levy: Esta función posee 760 mínimos locales con pendientes abruptas que dificultan la identificación del óptimo global (ver la Figura 3). La función de Levy está definida como
,
en donde
,
,
y alcanza su mínimo global en el punto de coordenadas
.
Figura 3. Gráfica de la función de
Levy
Figure 3. Levy's
function graph
Se observa un relieve quebrado que predomina en la gráfica de esta función, sin perder de vista la gran cantidad de puntos de inflexión que existe en su recorrido. Nótese las pendientes abruptas que dan forma a sus máximos y mínimos. Nuevamente por brevedad sólo se muestran en la Tabla 7 los resultados de una de las simulaciones realizadas.
Tabla 7. Análisis estadístico de los resultados de la
evaluación de la función de Levy Nº5 para
Table 7. Statistic Analysis of Nº5
Levy's function evaluation results for
A pesar de la dificultad que propone esta función, se aprecia la exactitud y precisión impuesta por el algoritmo híbrido PSOSX. En contraste, se observa el bajo rendimiento ofrecido por los métodos simplex y quasi-Newton. Aún si se reduce el espacio de búsqueda, los resultados del algoritmo híbrido PSOSX se encuentran lejos de ser logrados por los otros dos métodos.
4. CONCLUSIONES
Los resultados obtenidos muestran la exactitud, precisión y
robustez que ofrece el algoritmo híbrido PSOSX, especialmente en problemas que
por su complejidad son difíciles de resolver mediante los dos métodos numéricos
convencionales utilizados. La herramienta computacional desarrollada fue capaz
de encontrar el óptimo de las funciones de prueba y sus coordenadas con una
efectividad del ; ese no fue el caso para el simplex y el quasi-Newton. Por
otro lado, para todos los casos estudiados se hace evidente la poca
competitividad que ofrece este algoritmo
híbrido en lo que a tiempo de
ejecución se refiere.
REFERENCIAS
[1] CHAN F., KUMAR M., Swarm Intelligence, I-TECH Education and Publishing, 2007.
[2] DOWSLAND K. Heuristics Design and Fundamentals of the Simulated Annealing. Nottingham , U.K. , AEPIA, 2003.
[3] MELÍAN, B., MORENO J.Metaheuristics: A Global View, Ed., Santa Cruz de Tenerife , 2003.
[4] NEALDER, J., MEAD, R., A Simplex method for function minimization, Computer Journal 7, 308- 313,1965.
[5] KENNEDY J., EBERHART, R. Particle Swarm Optimization. Proc. IEEE Int. Conf. Neural Networks, 39-43, 1995.
[6] VENTER G., SOBIESKI, J., A parallel particle swarm optimization algorithm accelerated by asynchronous evaluations. 6th World congress of structural and multidisciplinary optimization, Rio de Janeiro , Brazil , 2005.
[7] XU S., RAHMAT Y., Boundary conditions in particle swarm optimization revisited, IEEE Trans.Antennas Propagat., Vol. 55, no.3, 760-765, Mar., 2007.
[8] NANBO J., Particle Swarm Optimization in Engineering Electromagnetics, (Doctoral Thesis), University of California , Los Angeles , 2008.
[9] HUANG T., MOHAN A., A hybrid boundary condition for robust particle swarm optimization, IEEE Antennas Wirless Propagat. Lett, Vol. 5, pp 112-117, 2005.
[10] MIKKI S., KISHK A., Hybrid periodic boundary condition for particle swarm optimization, IEEE Trans. Antennas Propagat., Vol. 55, no. 11,3252-3256, Nov., 2007.
[11] CLERC M. Particle Swarm Optimization, Prentice Hall, London , U.K. , 2006.
[12] BEGAMBRE O., Algoritmo Hibrido para Avaliação da Integridade Estrutural: Uma Abordagem Heurística (Tesis doctoral). Escuela de Ingeniería de San Carlos, Universidad de Sao Paulo, 2007.
[13] FAN S., ZAHARA E. A hybrid simplex search and particle swarm optimization for unconstrained optimization. European J. of Operat. Research, September, 527-548, 2007.
[14] FAN S., LIANG Y., ZAHARA E. Hybrid simplex search and PSO for the global optimization of multimodal functions, J. of Eng. Optimization, 36(4), 401-418, 2004.
Cómo citar
IEEE
ACM
ACS
APA
ABNT
Chicago
Harvard
MLA
Turabian
Vancouver
Descargar cita
Visitas a la página del resumen del artículo
Descargas
Licencia
Derechos de autor 2011 DYNA

Esta obra está bajo una licencia internacional Creative Commons Atribución-NoComercial-SinDerivadas 4.0.
El autor o autores de un artículo aceptado para publicación en cualquiera de las revistas editadas por la facultad de Minas cederán la totalidad de los derechos patrimoniales a la Universidad Nacional de Colombia de manera gratuita, dentro de los cuáles se incluyen: el derecho a editar, publicar, reproducir y distribuir tanto en medios impresos como digitales, además de incluir en artículo en índices internacionales y/o bases de datos, de igual manera, se faculta a la editorial para utilizar las imágenes, tablas y/o cualquier material gráfico presentado en el artículo para el diseño de carátulas o posters de la misma revista.