Docsity
Docsity

Prepara tus exámenes
Prepara tus exámenes

Prepara tus exámenes y mejora tus resultados gracias a la gran cantidad de recursos disponibles en Docsity


Consigue puntos base para descargar
Consigue puntos base para descargar

Gana puntos ayudando a otros estudiantes o consíguelos activando un Plan Premium


Orientación Universidad
Orientación Universidad

Algoritmos Heurísticos en Optimización Combinatoria, Tesinas de Informática

Los métodos descritos en este libro reciben el nombre de algoritmos heurísticos, metaheurísticos o sencillamente heurísticos. Este término deriva de la palabra griega heuriskein que significa encontrar o descubrir y se usa en el ámbito de la optimización para describir una clase de algoritmos de resolución de problemas.

Tipo: Tesinas

2018/2019

Subido el 17/11/2019

tecno-z
tecno-z 🇲🇽

2 documentos

1 / 31

Toggle sidebar

Esta página no es visible en la vista previa

¡No te pierdas las partes importantes!

bg1
Algoritmos Heurísticos en
Optimización Combinatoria
Rafael Martí Cunquero
Departament d’Estadística i Investigació Operativa
pf3
pf4
pf5
pf8
pf9
pfa
pfd
pfe
pff
pf12
pf13
pf14
pf15
pf16
pf17
pf18
pf19
pf1a
pf1b
pf1c
pf1d
pf1e
pf1f

Vista previa parcial del texto

¡Descarga Algoritmos Heurísticos en Optimización Combinatoria y más Tesinas en PDF de Informática solo en Docsity!

Algoritmos Heurísticos en

Optimización Combinatoria

Rafael Martí Cunquero

Departament d’Estadística i Investigació Operativa

1. Introducción

Los métodos descritos en este libro reciben el nombre de algoritmos heurísticos, metaheurísticos o sencillamente heurísticos. Este término deriva de la palabra griega heuriskein que significa encontrar o descubrir y se usa en el ámbito de la optimización para describir una clase de algoritmos de resolución de problemas.

En el lenguaje coloquial, optimizar significa poco más que mejorar; sin embargo, en el contexto científico la optimización es el proceso de tratar de encontrar la mejor solución posible para un determinado problema. En un problema de optimización existen diferentes soluciones, un criterio para discriminar entre ellas y el objetivo es encontrar la mejor. De forma más precisa, estos problemas se pueden expresar como encontrar el valor de unas variables de decisión para los que una determinada función objetivo alcanza su valor máximo o mínimo. El valor de las variables en ocasiones está sujeto a unas restricciones.

Podemos encontrar una gran cantidad de problemas de optimización, tanto en la industria como en la ciencia. Desde los clásicos problemas de diseño de redes de telecomunicación u organización de la producción hasta los más actuales en ingeniería y re-íngeniería de software, existe una infinidad de problemas teóricos y prácticos que involucran a la optimización.

Algunas clases de problemas de optimización son relativamente fáciles de resolver. Este es el caso, por ejemplo, de los problemas lineales , en los que tanto la función objetivo como las restricciones son expresiones lineales. Estos problemas pueden ser resueltos con el conocido método Simplex; sin embargo, muchos otros tipos de problemas de optimización son muy difíciles de resolver. De hecho, la mayor parte de los que podemos encontrar en la práctica entran dentro de esta categoría.

La idea intuitiva de problema “difícil de resolver” queda reflejada en el término científico NP-hard utilizado en el contexto de la complejidad algorítmica. En términos coloquiales podemos decir que un problema de optimización difícil es aquel para el que no podemos garantizar el encontrar la mejor solución posible en un tiempo razonable. La existencia de una gran cantidad y variedad de problemas difíciles, que aparecen en la práctica y que necesitan ser resueltos de forma eficiente, impulsó el desarrollo de procedimientos eficientes para encontrar buenas soluciones aunque no fueran óptimas. Estos métodos, en los que la rapidez del proceso es tan importante cómo la calidad de la solución obtenida, se denominan heurísticos o aproximados. En Díaz y otros (1996) se recogen hasta ocho definiciones diferentes de algoritmo heurístico, entre las que destacamos la siguiente:

“Un método heurístico es un procedimiento para resolver un problema de optimización bien definido mediante una aproximación intuitiva, en la que la estructura del problema se utiliza de forma inteligente para obtener una buena solución.”

En contraposición a los métodos exactos que proporcionan una solución óptima del problema, los métodos heurísticos se limitan a proporcionar una buena solución del problema no necesariamente óptima. Lógicamente, el tiempo invertido por un método exacto para encontrar la solución óptima de un problema difícil, si es que existe tal método, es de un orden de magnitud muy superior al del heurístico (pudiendo llegar a ser tan grande en muchos casos, que sea inaplicable).

En este texto consideraremos los llamados problemas de Optimización Combinatoria. En estos problemas el objetivo es encontrar el máximo (o el mínimo) de una determinada función sobre un conjunto finito de soluciones que denotaremos por S. No se exige ninguna condición o propiedad sobre la función objetivo o la definición del conjunto S. Es importante notar que dada la finitud de S, las variables han de ser discretas, restringiendo su dominio a una serie finita de valores. Habitualmente, el número de elementos de S es muy elevado, haciendo impracticable la evaluación de todas sus soluciones para determinar el óptimo.

En los últimos años ha habido un crecimiento espectacular en el desarrollo de procedimientos heurísticos para resolver problemas de optimización. Este hecho queda claramente reflejado en el gran número de artículos en publicados en revistas especializadas. En 1995 se edita el primer número de la revista Journal of Heuristics dedicada íntegramente a la difusión de los procedimientos heurísticos.

Aunque hemos mencionado el caso de la resolución de un problema difícil, existen otras razones para utilizar métodos heurísticos, entre las que podemos destacar:

Métodos de Reducción Consiste en identificar propiedades que se cumplen mayoritariamente por las buenas soluciones e introducirlas como restricciones del problema. El objeto es restringir el espacio de soluciones simplificando el problema. El riesgo obvio es dejar fuera las soluciones óptimas del problema original.

Métodos Constructivos Consisten en construir literalmente paso a paso una solución del problema. Usualmente son métodos deterministas y suelen estar basados en la mejor elección en cada iteración. Estos métodos han sido muy utilizados en problemas clásicos como el del viajante.

Métodos de Búsqueda Local A diferencia de los métodos anteriores, los procedimientos de búsqueda o mejora local comienzan con una solución del problema y la mejoran progresivamente. El procedimiento realiza en cada paso un movimiento de una solución a otra con mejor valor. El método finaliza cuando, para una solución, no existe ninguna solución accesible que la mejore.

Si bien todos estos métodos han contribuido a ampliar nuestro conocimiento para la resolución de problemas reales, los métodos constructivos y los de búsqueda local constituyen la base de los procedimientos metaheurísticos. Por ello, estudiaremos en el capítulo segundo los métodos constructivos en el problema del viajante y en el capítulo tercero los métodos de búsqueda local en este mismo problema. El lector podrá encontrar alusiones a lo largo del texto a cualquiera de los métodos de descomposición, inductivos o de reducción, pero no dedicaremos una sección específica a su estudio. Alternativamente, prestaremos especial atención a los métodos resultantes de combinar la construcción con la búsqueda local y sus diferentes variantes en el capítulo tercero, puesto que puede considerarse un punto de inicio en el desarrollo de método metaheurísticos.

En los últimos años han aparecido una serie de métodos bajo el nombre de Metaheurísticos con el propósito de obtener mejores resultados que los alcanzados por los heurísticos tradicionales. El término metaheurístico fue introducido por Fred Glover en 1986. En este libro utilizaremos la acepción de heurísticos para referirnos a los métodos clásicos en contraposición a la de metaheurísticos que reservamos para los más recientes y complejos. En algunos textos podemos encontrar la expresión “heurísticos modernos” refiriéndose a los meta-heurísticos (Reeves, 1995) tal y como se menciona: " The modern-coin comes from ... the way they attempt to simulate some naturally-occurring process. ".. Los profesores Osman y Kelly (1995) introducen la siguiente definición:

“Los procedimientos Metaheurísticos son una clase de métodos aproximados que están diseñados para resolver problemas difíciles de optimización combinatoria, en los que los heurísticos clásicos no son efectivos. Los Metaheurísticos proporcionan un marco general para crear nuevos algoritmos híbridos combinando diferentes conceptos derivados de la inteligencia artificial, la evolución biológica y los mecanismos estadísticos”

Los procedimientos Meta-Heurísticos se sitúan conceptualmente “por encima” de los heurísticos en el sentido que guían el diseño de éstos. Así, al enfrentarnos a un problema de optimización, podemos escoger cualquiera de estos métodos para diseñar un algoritmo específico que lo resuelva aproximadamente. En Glover (1986) se introduce dicha idea según:

“A metaheuristic refers to a master strategy that guides and modifies other heuristics to produce solutions beyond those that are normally generated in a quest for local optimality. The heuristics guided by such a meta-strategy may be high level procedures or may embody nothing more than a description of available moves for transforming one solution into another, together with an associated evaluation rule”.

Otras definiciones más recientes son:

“An iterative master process that guides and modifies the operations of subordinate heuristics to efficiently produce high-quality solutions. It may manipulate a complete (or incomplete) single solution or a collection of solutions at each iteration. The subordinate heuristics may be high (or low) level procedures, or a simple local search, or just a construction method." Voß et al (1997)

“It is a heuristic framework which combines a non-problem-specific control procedure with a subordinate heuristic in order to commonly find better solutions than the latter one would be able on its own. The control process mentioned can be implemented for different problems without changing its ingredients significantly.” Greistorfer (2000)

En estos momentos existe un gran desarrollo y crecimiento de estos métodos. En este libro vamos a limitarnos a aquellos procedimientos relativamente consolidados y que han probado su eficacia sobre una colección significativa de problemas. Específicamente consideraremos en el capítulo quinto la Búsqueda Tabú, en el sexto el Templado Simulado y en el séptimo los diferentes Métodos Evolutivos, incluyendo los Algoritmos Genéticos y la Búsqueda Dispersa (Scatter Search). Los métodos GRASP junto con los Multi-Arranque han sido incluidos en el capítulo cuarto de Métodos Combinados que sirve de “puente” entre los métodos heurísticos y los metaheurísticos.

Es importante notar que para la correcta compresión y asimilación de los métodos descritos, resulta indispensable su puesta en práctica, para lo cual el lector deberá programar en un ordenador los algoritmos descritos y resolver algún problema de optimización combinatoria. Recomendamos utilizar algún lenguaje de programación de relativo bajo nivel como el C que permita controlar los detalles de implementación. La siguiente sección incluye una colección de problemas de entre los que el lector puede escoger alguno e ir trabajando con él, aplicando los métodos descritos a lo largo de todo el texto.

Al resolver un problema de forma heurística debemos de medir la calidad de los resultados puesto que, como ya hemos mencionado, la optimalidad no está garantizada. En la sección tercera de este capítulo se recogen los principales métodos para medir la calidad y eficiencia de un algoritmo y poder determinar su valía frente a otros.

1.1 Problemas Estructurados

El objeto de esta sección no es únicamente dar una colección de ejemplos reales, sino el de establecer modelos que han sido muy estudiados. Así, al enfrentarse el lector a un problema dado, tratará de reconocer las estructuras especiales que aparecen en estos modelos y de esta forma se podrá aprovechar la extensa literatura y experiencia computacional al respecto. Además, no debemos olvidar la limitada, pero significativa, importancia práctica de estos modelos.

Problema de la Mochila

Se tienen n objetos donde cada objeto j tiene un peso wj y un valor vj. El problema consiste en seleccionar los objetos a incluir en una mochila sin exceder el peso máximo W, de modo que el valor total de los mismos sea máximo.

Para formular el problema se define una variable xi , por cada objeto i, de modo que vale 1 si el objeto es seleccionado y 0 en caso contrario.

MAX v 1 x 1 +v 2 x 2 +…+vnxn s.a.:

w 1 x 1 +w 2 x 2 +…+wnxn ≤ W

x ≥ 0, entero

Este problema tiene numerosas aplicaciones tales como:

  • La denominada Cutting Stock , en donde hay que cortar una plancha de acero en diferentes piezas.
  • Determinar los artículos que puede almacenar un depósito para maximizar su valor total.
  • Maximizar el beneficio en asignación de inversiones cuando sólo hay una restricción.

Problema del Cubrimiento de Conjuntos

Este problema, también conocido como “ Set Covering”, se puede enunciar del siguiente modo: Sea un conjunto de objetos S={1,2,..,m} y una clase H de subconjuntos de S, H={H 1 ,H 2 ,. .,Hn} donde cada Hi tiene un coste ci asociado. El problema consiste en cubrir con coste mínimo todos los elementos de S con subconjuntos Hi.

librería TSPLIB (Reinelt, 1991) de domino público contiene un conjunto de ejemplos del TSP con la mejor solución obtenida hasta la fecha y, en algunos casos, con la solución óptima. A efectos de medir empíricamente la bondad de los algoritmos que se describen en los capítulos segundo y tercero, consideraremos un conjunto de 30 ejemplos de la TSPLIB basados en problemas reales con óptimos conocidos.

El Problema del Viajante puede enunciarse del siguiente modo:

“Un viajante de comercio ha de visitar n ciudades, comenzando y finalizando en su propia ciudad. Conociendo el coste de ir de cada ciudad a otra, determinar el recorrido de coste mínimo.”

Para enunciar el problema formalmente introducimos la siguiente terminología: Sea un grafo G=(V,A,C) donde V es el conjunto de vértices, A es el de aristas y C=(cij) es la matriz de costes. Esto es, cij es el coste o distancia de la arista (i, j).

  • Un camino (o cadena) es una sucesión de aristas (e 1 , e 2 , …, ek) en donde el vértice final de cada arista coincide con el inicial de la siguiente. También puede representarse por la sucesión de vértices utilizados.
  • Un camino es simple o elemental si no utiliza el mismo vértice mas de una vez.
  • Un ciclo es un camino (e 1 , e 2 , …, ek) en el que el vértice final de ek coincide con el inicial de e 1.
  • Un ciclo es simple si lo es el camino que lo define.
  • Un subtour es un ciclo simple que no pasa por todos los vértices del grafo.
  • Un tour o ciclo hamiltoniano es un ciclo simple que pasa por todos los vértices del grafo.

El Problema del Viajante consiste en determinar un tour de coste mínimo. La figura 2 muestra un grafo de 8 vértices en el que aparece destacado un ciclo hamiltoniano.

1

2

3

4

5

6

7

8

3

4

4

4

6

6

6

8

10

10

5

8

5

8 4

3

4

Figura 1. Ciclo Hamiltoniano

Consideraremos, sin pérdida de generalidad, que el grafo es completo; es decir, que para cada par de vértices existe una arista que los une. Notar que, de no ser así, siempre podemos añadir una arista ficticia entre dos vértices con el coste del camino más corto que los une. Así por ejemplo, en el grafo de la figura 2 podemos añadir una arista entre los vértices 1 y 6 con coste 9 correspondiente al camino 1-3-6.

Entre las aplicaciones más importantes del TSP podemos destacar:

  • Fabricación de circuitos integrados
  • Rutas de vehículos
  • Recogida (robotizada) de material en almacenes
  • Instalación de componentes en ordenadores
  • Aparece como subproblema en otras aplicaciones

Este problema puede ser formulado mediante un modelo de programación lineal entera con variables binarias. Para ello basta considerar las variables xij que valen 1 si el viajante va de la ciudad i a la j y 0 en otro caso y llamar cij al coste de ir de la ciudad i a la j:

[ ]

MIN c x

s a

x x i n

x S n S n

x i j

ij i j ij

i j ij^ j i ji

i j S ij ij

<

< <

  • = =

≥ ∀ ⊆ ≤ ≤

= ∀ <

. .:

, ,...,

{ , ,.., }, /

,

( , ) ( )

2 1 2

2 1 2 3

0 1

2

Donde ∂(S) representa el conjunto de aristas incidentes con exactamente un vértice de S.

Las restricciones que aparecen en segundo lugar (vinculadas a todos los subconjuntos de vértices S) reciben el nombre de restricciones de eliminación de subtours y garantizan que la solución sea un tour. El problema es que al haber una por cada subconjunto del conjunto de vértices, aparecen en una cantidad del orden de 2n, lo cual hace inmanejable tal formulación. Se han encontrado restricciones alternativas para evitar la formación de subtours que suponen la incorporación de una cantidad polinómica de restricciones (Miller, Tucker y Zemlin, 1960). Aún así, la resolución óptima del problema ha resultado poco eficiente, salvo para ejemplos relativamente pequeños, dado el elevado tiempo de computación requerido por cualquier método exacto.

Problema de la Asignación Cuadrática

Introduciremos el problema mediante el siguiente ejemplo: “Se tienen n módulos electrónicos y n posiciones en donde situarlos sobre una placa. Sea tik el número de cables que conectan los módulos i y k, y sea djl la distancia entre las posiciones j y l de la placa. El problema consiste en determinar la ubicación de los módulos minimizando la longitud total del cable utilizado”

Al igual que en los otros modelos de asignación vistos, se introducen variables xij que valen 1 si el módulo i se asigna a la posición j y 0 en otro caso.

MIN t d x x

s a

x i n

x j n

x

ik jl l

n ij k

n

j

n

i

n kl

ij j

n

ij i

n

ij

= = = =

=

=

1 1 1 1

1

1

El problema se llama cuadrático por la función objetivo ya que el coste viene dado por parejas de variables que aparecen como producto. Así pues la función objetivo es no lineal, aunque se puede transformar en un problema lineal entero introduciendo variables que representen a los productos. Notar que esta transformación obligaría a reformular las restricciones.

Este problema tiene numerosas aplicaciones ya que podemos encontrar en ámbitos muy diversos situaciones como la descrita. Así, por ejemplo, el problema de ubicar determinados servicios (como laboratorios, rayos X,. .etc.) en un hospital en donde se conoce el flujo previsto de personal entre tales servicios. Análogamente el guardar determinados productos en un almacén.

El objeto de introducir este problema es doble: por una parte mostrar un problema no lineal, con un gran número de aplicaciones prácticas, que puede transformarse en un PLE y, por otra, presentar uno de los problemas más difíciles (sino el que más) dentro de los ya de por sí difíciles problemas enteros.

1.2 Medidas de Calidad de un Algoritmo

Un buen algoritmo heurístico debe de tener las siguientes propiedades:

  1. Eficiente. Un esfuerzo computacional realista para obtener la solución.
  2. Bueno. La solución debe de estar, en promedio, cerca del óptimo.
  3. Robusto. La probabilidad de obtener una mala solución (lejos del óptimo) debe ser baja.

Para medir la calidad de un heurístico existen diversos procedimientos, entre los que se encuentran los siguientes:

Comparación con la solución óptima Aunque normalmente se recurre al algoritmo aproximado por no existir un método exacto para obtener el óptimo, o por ser éste computacionalmente muy costoso, en ocasiones puede que dispongamos de un procedimiento que proporcione el óptimo para un conjunto limitado de ejemplos (usualmente de tamaño reducido). Este conjunto de ejemplos puede servir para medir la calidad del método heurístico.

Normalmente se mide, para cada uno de los ejemplos, la desviación porcentual de la solución heurística frente a la óptima, calculando posteriormente el promedio de dichas desviaciones. Si llamamos ch al coste de la solución del algoritmo heurístico y copt al coste de la solución óptima de un ejemplo dado, en un problema de

minimización la desviación porcentual viene dada por la expresión: c c c

h opt opt

Comparación con una cota En ocasiones el óptimo del problema no está disponible ni siquiera para un conjunto limitado de ejemplos. Un método alternativo de evaluación consiste en comparar el valor de la solución que proporciona el heurístico con una cota del problema (inferior si es un problema de minimización y superior si es de maximización). Obviamente la bondad de esta medida dependerá de la bondad de la cota (cercanía de ésta al óptimo), por lo que, de alguna manera, tendremos que tener información de lo buena que es dicha cota. En caso contrario la comparación propuesta no tiene demasiado interés.

Comparación con un método exacto truncado Un método enumerativo como el de Ramificación y Acotación explora una gran cantidad de soluciones, aunque sea únicamente una fracción del total, por lo que los problemas de grandes dimensiones pueden resultar computacionalmente inabordables con estos métodos. Sin embargo, podemos establecer un límite de iteraciones (o de tiempo) máximo de ejecución para el algoritmo exacto. También podemos saturar un nodo en un problema de maximización cuando su cota inferior sea menor o igual que la cota superior global más un cierto α (análogamente para el caso de minimizar). De esta forma se garantiza que el valor de la mejor solución proporcionada por el procedimiento no dista mas de α del valor óptimo del problema. En cualquier caso, la mejor solución encontrada con estos procedimientos truncados proporciona una cota con la que contrastar el heurístico.

Comparación con otros heurísticos Este es uno de los métodos más empleados en problemas difíciles (NP-duros) sobre los que se ha trabajado durante tiempo y para los que se conocen algunos buenos heurísticos. Al igual que ocurre con la comparación con las cotas, la conclusión de dicha comparación está en función de la bondad del heurístico escogido.

Análisis del peor caso Uno de los métodos que durante un tiempo tuvo bastante aceptación es analizar el comportamiento en el peor caso del algoritmo heurístico; esto es, considerar los ejemplos que sean mas desfavorables para el algoritmo y acotar analíticamente la máxima desviación respecto del óptimo del problema. Lo mejor de este método es que acota el resultado del algoritmo para cualquier ejemplo; sin embargo, por esto mismo, los resultados no suelen ser representativos del comportamiento medio del algoritmo. Además, el análisis puede ser muy complicado para los heurísticos más sofisticados.

Aquellos algoritmos que, para cualquier ejemplo, producen soluciones cuyo coste no se aleja de un porcentaje ε

del coste de la solución óptima, se llaman Algoritmos ε -Aproximados. Esto es; en un problema de minimización

se tiene que cumplir para un ε > 0 que: ch ≤ (1+ ε ) copt

2. Métodos Constructivos en el Problema del Viajante

Los métodos constructivos son procedimientos iterativos que, en cada paso, añaden un elemento hasta completar una solución. Usualmente son métodos deterministas y están basados en seleccionar, en cada iteración, el elemento con mejor evaluación. Estos métodos son muy dependientes del problema que resuelven, por lo que utilizaremos el problema del viajante para describirlos. En este capítulo se describen cuatro de los métodos más conocidos para el TSP tal y como aparecen en la revisión realizada por Jünger, Reinelt y Rinaldi (1995).

2.1 Heurísticos del Vecino mas Próximo

Uno de los heurísticos mas sencillos para el TSP es el llamado “del vecino mas cercano”, que trata de construir un ciclo Hamiltoniano de bajo coste basándose en el vértice cercano a uno dado. Este algoritmo es debido a Rosenkrantz, Stearns y Lewis (1977) y su código, en una versión standard, es el siguiente:

Algoritmo del Vecino más Próximo Inicialización Seleccionar un vértice j al azar. Hacer t = j y W = V \ {j}.

Mientras ( (^) W ≠ ∅ ) Tomar j de W / ctj = min {cti / i en W} Conectar t a j Hacer W = W \ {j} y t =j.

Este procedimiento realiza un número de operaciones de orden O(n^2 ). Si seguimos la evolución del algoritmo al construir la solución de un ejemplo dado, veremos que comienza muy bien, seleccionando aristas de bajo coste. Sin embargo, al final del proceso probablemente quedarán vértices cuya conexión obligará a introducir aristas de coste elevado. Esto es lo que se conoce como miopía del procedimiento, ya que, en una iteración escoge la mejor opción disponible sin “ver” que esto puede obligar a realizar malas elecciones en iteraciones posteriores.

El algoritmo tal y como aparece puede ser programado en unas pocas líneas de código. Sin embargo una implementación directa será muy lenta al ejecutarse sobre ejemplos de gran tamaño (10000 vértices). Así pues, incluso para un heurístico tan sencillo como éste, es importante pensar en la eficiencia y velocidad de su código.

Para reducir la miopía del algoritmo y aumentar su velocidad se introduce el concepto de subgrafo candidato, junto con algunas modificaciones en la exploración. Un subgrafo candidato es un subgrafo del grafo completo con los n vértices y únicamente las aristas consideradas “atractivas” para aparecer en un ciclo Hamiltoniano de bajo coste. Una posibilidad es tomar, por ejemplo, el subgrafo de los k vecinos más cercanos ; esto es, el subgrafo con los n vértices y para cada uno de ellos las aristas que lo unen con los k vértices más cercanos. Este subgrafo también será usado en otros procedimientos.

El algoritmo puede “mejorarse” en los siguientes aspectos:

  • Para seleccionar el vértice j que se va a unir a t (y por lo tanto al tour parcial en construcción), en lugar de examinar todos los vértices, se examinan únicamente los adyacentes a t en el subgrafo candidato. Si todos ellos están ya en el tour parcial, entonces sí que se examinan todos los posibles.
  • Cuando un vértice queda conectado (con grado 2) al tour en construcción, se eliminan del subgrafo candidato las aristas incidentes con él.
  • Se especifica un número s < k de modo que cuando un vértice que no está en el tour está conectado únicamente a s o menos aristas del subgrafo candidato se considera que se está quedando aislado. Por ello se inserta inmediatamente en el tour. Como punto de inserción se toma el mejor de entre los k vértices mas cercanos presentes en el tour.

Considerando el estudio empírico sobre las 30 ejemplos utilizados, la versión inicial del algoritmo presenta un porcentaje de desviación en promedio respecto del óptimo de 24.2%, mientras que la mejorada con k =10 y s = de 18.6%. La primera tiene un tiempo de ejecución medio de 15.3 segundos mientras que la segunda lo tiene de 0.3 segundos.

tomado k =3 vértices y se comprueba experimentalmente que el procedimiento no depende mucho del ciclo inicial (aproximadamente un 6% de variación). 2.3 Heurísticos Basados en Árboles Generadores

Los heurísticos considerados anteriormente construyen un ciclo Hamiltoniano basándose únicamente en los costes de las aristas. Los heurísticos de este apartado se basan en el árbol generador de coste mínimo, lo que aporta una información adicional sobre la estructura del grafo. Comenzaremos por ver algunos conceptos de teoría de grafos.

  • Un grafo es conexo si todo par de vértices está unido por un camino.
  • Un árbol es un grafo conexo que no contiene ciclos. El número de aristas de un árbol es igual al número de vértices menos uno.
  • Un árbol generador de un grafo G=(V,A,C) es un árbol sobre todos los vértices y tiene, por tanto, |V| - 1 aristas de G.
  • Un árbol generador de mínimo peso (o de coste mínimo) es aquel que de entre todos los árboles generadores de un grafo dado, presenta la menor suma de los costes de sus aristas.
  • Un acoplamiento de un grafo G=(V,A,C) es un subconjunto M del conjunto A de aristas cumpliendo que cada vértice del grafo es a lo sumo incidente con una arista de M.
  • Un acoplamiento sobre un grafo G=(V,A,C) es perfecto si es de cardinalidad máxima e igual a ⎣⎪V⎪/ 2⎦.

Las figuras siguientes ilustran los conceptos vistos sobre un grafo completo de 8 vértices. En la figura 3 tenemos un árbol generador. Notar que contiene a todos los vértices y no hay ningún ciclo. La figura 4 muestra un acoplamiento perfecto en el que podemos ver cómo cada vértice es incidente con una, y solo una, de las aristas. Al ser un grafo de 8 vértices el número máximo de aristas en un acoplamiento es de 4, por lo que el de la figura es perfecto.

1

2

3

4

5

6

7

8

1

2

3

4

5

6

7

8

Figura 3. Árbol generador (^) Figura 4. Acoplamiento Perfecto

El algoritmo debido a Prim (1957) obtiene un árbol generador de mínimo peso de un grafo G completo. El algoritmo comienza por definir el conjunto T de aristas del árbol (inicialmente vacío) y, el conjunto U de vértices del árbol (inicialmente formado por uno elegido al azar). En cada paso se calcula la arista de menor coste que une U con V\U, añadiéndola a T y pasando su vértice adyacente de V\U a U. El procedimiento finaliza cuando U es igual a V; en cuyo caso el conjunto T proporciona la solución.

Dado un ciclo vi0, vi1,…, vik que pasa por todos los vértices de G (no necesariamente simple), el siguiente procedimiento obtiene un ciclo Hamiltoniano comenzando en vi0 y terminando en vik (vi0= vik). En el caso de grafos con costes cumpliendo la desigualdad triangular (como es el caso de grafos euclídeos), este procedimiento obtiene un ciclo de longitud menor o igual que la del ciclo de partida.

Algoritmo de Obtención de Tour Inicialización Hacer T = { vi0 }, v = vi0 y s=.

Mientras ( |T| < |V| ) Si vi s no está en T, hacer:

T = T ∪ { vi s }

Conectar v a vi s y hacer v = vi s Hacer s = s+ Conectar v a vi0 y formar el ciclo Hamiltoniano

A partir de los elementos descritos se puede diseñar un algoritmo para obtener un ciclo Hamiltoniano. Basta con construir un árbol generador de mínimo peso (figura 5), considerar el ciclo en el que todas las aristas del árbol son recorridas dos veces, cada vez en un sentido (figura 6), y aplicar el algoritmo de obtención de tour a dicho ciclo (figura 7). El ejemplo de las figuras mencionadas ilustra dicho procedimiento sobre un grafo completo con 10 vértices.

2

3 4

5

1

(^8 ) 7

9

10

25

16

(^25 )

19

(^1514)

17 9

2

3 4

5

1

(^8 )

7

9

10

2

3 4

5

1

(^8 )

7

9

10

25

16

19 14

17 9

68

45

Figura 5. Árbol Generador Figura 6. Duplicación de aristas Figura 7. Ciclo Hamiltoniano

La figura 5 muestra un árbol generador de mínimo peso e igual a 156. En la figura 6 se han duplicado las aristas y se señala mediante flechas la dirección del ciclo resultante. Su coste obviamente será de 156x2=312. Aplicando el procedimiento de obtención de tour al ciclo de la figura 6, se obtiene el ciclo Hamiltoniano de la figura 7 con un coste de 258.

El proceso de duplicación de las aristas (recorrerlas todas en ambos sentidos) para obtener un tour aumenta en gran medida el coste de la solución. Podemos ver que es posible obtener un ciclo que pase por todos los vértices de G a partir de un árbol generador sin necesidad de duplicar todas las aristas. De hecho, basta con añadir aristas al árbol de modo que todos los vértices tengan grado par. El siguiente procedimiento, debido a Christofides (1976), calcula un acoplamiento perfecto de mínimo peso sobre los vértices de grado impar del árbol generador. Añadiendo al árbol las aristas del acoplamiento se obtiene un grafo con todos los vértices pares, y por lo tanto, un ciclo del grafo original, a partir del cual ya hemos visto cómo obtener un tour.

Algoritmo de Christofides

_1. Calcular un Árbol Generador de Mínimo Peso

  1. Obtener el conjunto de vértices de grado impar en el Árbol.
  2. Obtener un Acoplamiento Perfecto de mínimo peso sobre dichos vértices.
  3. Añadir las aristas del Acoplamiento al Árbol.
  4. Aplicar el procedimiento de Obtención de Tour._

El cálculo del acoplamiento perfecto de coste mínimo sobre un grafo de k vértices se realiza en un tiempo O( k^3 ) con el algoritmo de Edmonds (1965). Dado que un árbol generador de mínimo peso tiene como máximo n- hojas (vértices de grado 1 en el árbol), el procedimiento de Christofides tendrá un tiempo de orden O(n^3 ).

Propiedad : El algoritmo de Christofides sobre ejemplos cuya matriz de distancias cumple la desigualdad triangular produce una solución cuyo valor es como mucho 1.5 veces el valor óptimo:

c (^) HcO

2 PT

Es decir, es un algoritmo ½ - aproximado sobre esta clase de ejemplos.

Prueba: Sea c(AGMP) el coste del árbol generador de mínimo peso y c(A) el coste del acoplamiento perfecto calculado en el algoritmo de Christofides. Al añadir las aristas del acoplamiento al árbol se obtiene un ciclo (con posibles repeticiones) cuyo coste es la suma de ambos costes. Dado que la matriz de distancias cumple la desigualdad triangular, al aplicar el algoritmo de obtención de tour el coste puede reducirse eventualmente. Por ello el coste de la solución obtenida, cH , cumple:

cH ≤ c(AGMP) + c(A) (1)

El algoritmo siguiente se basa en combinar sucesivamente subtours hasta obtener un ciclo Hamiltoniano. Los subtours considerados tienen un vértice común llamado base. El procedimiento de unión de subtours se basa en eliminar las aristas que conectan dos vértices de diferentes subtours con el vértice base, uniendo posteriormente los vértices entre si. Llamamos ahorro a la diferencia del coste entre las aristas eliminadas y la añadida.

Algoritmo de Ahorros Inicialización

Tomar un vértice z ∈ V como base.

Establecer los n-1 subtours [( z,v),(v,z)] ∀ v ∈ V {z}.

Mientras ( Queden dos o mas subtours ) Para cada par de subtours calcular el ahorro de unirlos al eliminar en cada uno una de las aristas que lo une con z y conectar los dos vértices asociados. Unir los dos subtours que produzcan un ahorro mayor.

En las figuras 11 y 12 se ilustra una iteración del procedimiento. Podemos ver cómo se combinan dos subtours eliminando las aristas de los vértices i y j al vértice base z, e insertando la arista (i,j).

z

i

j z

i

j

Figura 11. Conjunto inicial de subtours Figura 12. Conjunto final de subtours

En la implementación del algoritmo se tiene que mantener una lista con las combinaciones posibles. El punto clave de la implementación es la actualización de esta lista. Sin embargo, al unir dos subtours únicamente se ven afectados aquellos en los que su “mejor conexión” pertenece a alguno de los dos subtours recién unidos. Luego basta con actualizar estos en cada iteración sin necesidad de actualizarlos todos cada vez que se realiza una unión.

Al igual que en otros heurísticos, podemos utilizar el subgrafo candidato (en el que están todos los vértices y sólo las aristas consideradas “atractivas”) para acelerar los cálculos. Así, al actualizar la lista de la mejores conexiones únicamente se consideran aristas del subgrafo candidato.

El método presenta un tiempo de ejecución de O(n^3 ). Respecto al estudio empírico sobre los 30 ejemplos de la TSPLIB los porcentajes de desviación respecto del óptimo son de 9.8% para el método original y 9.6% para el mejorado con el uso del subgrafo candidato. Además, el tiempo de ejecución es mucho menor para este último.

La siguiente tabla recoge los resultados del estudio comparativo sobre los cuatro algoritmos descritos, con los 30 ejemplos de la TSPLIB considerados:

Heurístico Desviación del Óptimo

T. Ejecución (pr2392) Vecino más Próximo 18.6% 0. Inserción más Lejana 9.9% 35. Christofides 19.5% 0. Ahorros 9.6% 5.

Todos los métodos están basados en cálculos relativamente sencillos y han sido implementados eficientemente, por lo que los tiempos de computación son muy parecidos entre sí e inferiores a 1 segundo en promedio. Por

ello, para distinguir entre todos, en la tabla se muestra el tiempo en segundos sobre el ejemplo de mayor tamaño considerado (pr2392) de casi 2400 vértices.

A la vista de los resultados podemos concluir que tanto el método de los ahorros como el de inserción basado en el elemento más lejano son los que mejores resultados obtienen, aunque presentan un tiempo de computación mayor que los otros dos.

3. Métodos de Búsqueda Local en el Problema del Viajante

En general, las soluciones obtenidas con los métodos constructivos suelen ser de una calidad moderada. En este apartado vamos a estudiar diversos algoritmos basados en la búsqueda local para mejorarlas. Al igual que ocurría con los métodos descritos en la sección anterior, estos algoritmos son muy dependientes del problema que resuelven, por lo que al igual que allí, utilizaremos el TSP para describirlos. Específicamente, consideraremos tres de los métodos más utilizados, tal y como aparecen descritos en Jünger, Reinelt y Rinaldi (1995). Comenzaremos por definir y explicar algunos de los conceptos genéricos de estos métodos.

Los procedimientos de búsqueda local, también llamados de mejora, se basan en explorar el entorno o vecindad de una solución. Utilizan una operación básica llamada movimiento que, aplicada sobre los diferentes elementos de una solución, proporciona las soluciones de su entorno. Formalmente:

Definición : Sea X el conjunto de soluciones del problema combinatorio. Cada solución x tiene un conjunto de

soluciones asociadas N(x) ⊆ X , que denominaremos entorno de x.

Definición : Dada una solución x, cada solución de su entorno, x’ ∈ N(x), puede obtenerse directamente a partir

de x mediante una operación llamada movimiento.

Un procedimiento de búsqueda local parte de una solución inicial x 0 , calcula su entorno N(x 0 ) y escoge una nueva solución x 1 en él. Dicho de otro modo, realiza el movimiento m 1 que aplicado a x 0 da como resultado x 1. Este proceso puede ser aplicado reiteradamente tal y como muestra el diagrama siguiente:

x x x

m m m 0 1 2

⎯⎯ 1 → ⎯⎯ 2 → ⎯⎯ 3 → x

3

Un procedimiento de búsqueda local queda determinado al especificar un entorno y el criterio de selección de una solución dentro del entorno.

La definición de entorno/movimiento, depende en gran medida de la estructura del problema a resolver, así como de la función objetivo. También se pueden definir diferentes criterios para seleccionar una nueva solución del entorno. Uno de los criterios más simples consiste en tomar la solución con mejor evaluación de la función objetivo, siempre que la nueva solución sea mejor que la actual. Este criterio, conocido como greedy , permite ir mejorando la solución actual mientras se pueda. El algoritmo se detiene cuando la solución no puede ser mejorada. A la solución encontrada se le denomina óptimo local respecto al entorno definido.

El óptimo local alcanzado no puede mejorarse mediante el movimiento definido. Sin embargo, el método empleado no permite garantizar, de ningún modo, que sea el óptimo global del problema. Más aún, dada la “miopía” de la búsqueda local, es de esperar que en problemas de cierta dificultad, en general no lo sea.

La figura 13 muestra el espacio de soluciones de un problema de maximización de dos dimensiones donde la altura del gráfico mide el valor de la función objetivo. Se considera un procedimiento de búsqueda local greedy iniciado a partir de una solución x 0 con valor 5 y que realiza 8 movimientos de mejora hasta alcanzar la solución x 8 con valor 13. La figura muestra cómo x 8 es un óptimo local y cualquier movimiento que se le aplique proporcionará una solución con peor valor. Podemos ver cómo el óptimo global del problema, con un valor de 15, no puede ser alcanzado desde x 8 , a menos que permitamos realizar movimientos que empeoren el valor de las soluciones y sepamos dirigir correctamente la búsqueda