Mais

Como avaliar a qualidade do algoritmo TSP?

Como avaliar a qualidade do algoritmo TSP?


Estou tentando desenvolver meu próprio algoritmo para resolver o problema do caixeiro viajante (TSP). Testei-o (em seu estado atual) na instância "att48" do TSPLIB e obtive os seguintes resultados:

Como podemos ver, mais de 3/4 dos resultados estão dentro de 110% do comprimento ideal da rota. Mas na literatura científica eles relatam por mais de 20 décadas que seus algoritmos resolvem como 99% das instâncias do TSPLIB a 1% das distâncias ótimas (embora onde estão suas implementações GIS ?!). Então, eu me pergunto se há, por exemplo, um limite comumente aceitável para a saída do algoritmo para determinar se é lixo ou pode ser usado na vida real. Ou existem outros meios de avaliação do solucionador de TSP?


Ok, eu encontrei um artigo recente onde eles testaram e compararam vários algoritmos de TSP. Eles fizeram algoritmos testados encontrarem suas soluções em limites de tempo de 100 segundos para vários conjuntos de dados. Para minha sorte, 'att48' estava entre eles. Aqui está uma das tabelas de comparação (as distâncias são divididas por 100):

Portanto, tenho uma boa notícia para mim mesmo - minhas soluções foram encontradas abaixo de 100 segundos (85-95) do tempo real (não o tempo de CPU), e o único algoritmo nesta tabela que supera o meu para o 'att48' é o recozimento simulado.


Implementação adequada do TSP por força bruta

Eu preciso implementar o algoritmo TSP por força bruta para fins de aprendizagem.

Eu entendi que há um conjunto de cidades, vamos chamá-lo V e é possível obter uma representação de matriz para os custos para ir de um v1 cidade para um v2 cidade. Vou assumir que não há ciclos, então não é possível ir de v1 de volta a v1

Então, devo gerar uma matriz após essas séries de soma:

No entanto, eu realmente não consigo ver de uma forma prática como uma matriz seria gerada a partir das restrições.

Portanto, os custos do caminho são (e não são forçados a serem os mesmos para os caminhos de volta):

De Madrid para:

De Berlim para

De Malmo para:

Como a matriz deve ser gerada de acordo com a série de soma?

Presumo que o algoritmo precise gerar uma matriz a partir deste exemplo:

Existem 3 cidades x1, x2 e x3 e obteve a matriz de custos mostrada abaixo:

A seguir, o exemplo mostra a próxima matriz:

Que seria o mesmo que:

Então, considerando o poder ser das três cidades, a matriz obteve as seguintes linhas adicionadas:

Finalmente, toda a matriz gerada é:


Avaliação da qualidade dos algoritmos de otimização online por simulação de eventos discretos

Uma característica chave dos problemas dinâmicos que oferecem graus de liberdade ao tomador de decisão é a necessidade de uma rotina de tomada de decisão orientada para objetivos, que é empregada toda vez que a lógica do sistema requer uma decisão. Neste artigo, examinamos os procedimentos de otimização que aparecem como sub-rotinas em problemas dinâmicos e mostramos como a simulação de eventos discretos pode ser usada para avaliar a qualidade dos algoritmos: depois de estabelecer uma ligação geral entre a otimização online e os sistemas de eventos discretos, abordamos a medição de desempenho em configurações dinâmicas e derivar um kit de ferramentas correspondente. Em seguida, analisamos várias estratégias de controle usando as metodologias discutidas anteriormente em dois exemplos do mundo real de modelos de simulação de eventos discretos: um sistema de coleta manual de pedidos e um serviço de coleta e entrega.

Esta é uma prévia do conteúdo da assinatura, acesso através de sua instituição.


Um algoritmo semelhante ao fluxo de água para o problema do caixeiro viajante

O algoritmo de fluxo de água (WFA) é uma metaheurística relativamente nova que tem um bom desempenho no problema de agrupamento de objetos encontrado na otimização combinatória. Este artigo apresenta um WFA para resolver o problema do caixeiro viajante (TSP) como um problema baseado em gráficos. O desempenho do WFA no TSP é avaliado usando 23 conjuntos de dados de benchmark do TSP e comparando-o com algoritmos anteriores. Os resultados experimentais mostram que o WFA proposto encontrou melhores soluções em termos da solução média e do desvio percentual da solução média da solução mais conhecida.

1. Introdução

O problema do caixeiro viajante (TSP) é um problema clássico de otimização combinatória (COP), que foi introduzido muitos anos atrás em 1985 [1]. O TSP procura o caminho mais curto entre um conjunto de cidades com distâncias conhecidas entre pares de cidades para encontrar a solução de rota. A solução da rota pode ser articulada como um gráfico completo com um conjunto de vértices, que é um conjunto de arestas ponderadas pela distância entre dois vértices (cidades), para encontrar o caminho mais curto visitando cada cidade exatamente uma vez e retornando à cidade original .

Numerosas abordagens foram propostas e obtiveram boas soluções. No entanto, eles variam em termos de complexidade e eficiência e em serem capazes de resolver o TSP em vários níveis de complexidade e tamanho (pequeno, médio e grande). Estudos anteriores usam programação linear Dantzig et al. [2], formulação dinâmica Held e Karp [3], ramificação e limite [4] e ramificação e corte [1], mas sua capacidade é limitada a pequenos problemas (menos de 40 cidades). Posteriormente, foi provado que abordagens inteligentes artificiais têm a capacidade de resolver problemas mais complexos. Uma dessas abordagens, a rede neural auto-organizada [5–7], foi posteriormente expandida como uma metaheurística. Uma metaheurística pode otimizar um problema complexo pesquisando várias soluções candidatas com poucas ou nenhuma suposição sobre o problema sendo resolvido e sem qualquer garantia de encontrar a solução ótima. Algumas metaheurísticas usam uma abordagem baseada em solução única (por exemplo, tabu search (TS) e simulated annealing (SA)) ou uma abordagem baseada na população (por exemplo, algoritmo genético (GA)) [8-10], enquanto outros usam inteligência de enxame ( por exemplo, otimização de colônia de formigas (ACO)) [11], e recentemente, metaheurísticas híbridas foram propostas [7, 12]. Os resultados mostram que metaheurísticas híbridas podem produzir o melhor resultado usando 23 conjuntos de dados TSP de benchmark.

Recentemente, um novo algoritmo metaheurístico conhecido como algoritmo de fluxo de água (WFA) foi proposto [13]. O algoritmo é inspirado na água fluindo de altitudes mais altas para mais baixas. O fluxo pode se dividir em subfluxos quando atravessa terrenos rígidos e esses subfluxos se fundem quando se encontram no mesmo local. Os fluxos ficam estagnados em locais de altitude mais baixa se seu impulso não puder expulsar a água do local atual. O fluxo representa um agente de solução, a altitude de fluxo representa a função objetivo e o espaço de solução de um problema é representado por um terreno geográfico.

Algoritmos metaheurísticos anteriores foram projetados para pesquisar o espaço do problema com um número fixo de agentes de solução [8, 11, 14], entretanto, algumas abordagens foram propostas para obter uma configuração apropriada do número da população do algoritmo. Essas abordagens são categorizadas como abordagens de ajuste do tamanho da população offline ou online. No ajuste de tamanho de população offline, o objetivo é encontrar um número de população apropriado antes que o algoritmo inicie o processo de otimização e os processos de ajuste, que são realizados por tentativa e erro por um agente humano, o que os torna demorados e sujeitos a erros e geralmente levam a sintonia desigual do algoritmo [15]. Por outro lado, o ajuste do tamanho da população online é muito mais eficaz porque, como o nome indica, ele ajusta o tamanho da população online e faz isso durante o processo de otimização ou enquanto está resolvendo instâncias de problemas. O ajuste do tamanho da população online tem uma vantagem potencial, pois pode permitir que o algoritmo se adapte melhor às características de uma instância de problema particular.

No entanto, usar o ajuste online para controlar o tamanho da população de um algoritmo permanece um desafio [15-19], Gen e Cheng [20]. Muitos estudos de pesquisa têm se concentrado em encontrar métodos para permitir que metaheurísticas baseadas em população ajustem o tamanho da população online enquanto resolvem uma instância de problema, levando em consideração o impacto das características da instância e do cenário de aptidão. No entanto, esses métodos baseiam-se na análise das informações acumuladas que foram coletadas durante o processo de otimização, que podem estar relacionadas às propriedades globais da paisagem de aptidão, como robustez ou ruído da paisagem, ou podem estar relacionadas às propriedades locais de uma paisagem específica região. A coleta e análise dessas informações adicionam mais complexidade a um algoritmo, bem como mais tempo de computação. Além disso, a maioria dos métodos de ajuste de parâmetros online foram desenvolvidos para lidar com as limitações das metaheurísticas existentes, estendendo ou modificando a estrutura algorítmica, o que é difícil de alcançar na maioria das situações, e o sucesso foi limitado aos algoritmos que são projetados para pesquisar o espaço do problema com um tamanho de população fixo.

O WFA [13] usa o conceito de população dinâmica como uma estrutura fundamental para o projeto de algoritmos. O conceito pode ser aplicado para superar muitas das desvantagens das metaheurísticas baseadas em população e, para isso, os autores abordaram duas questões principais que afetam a eficiência da otimização do algoritmo. A primeira é a necessidade de reduzir o número de buscas redundantes, o que aumenta o custo computacional do algoritmo durante o processo de otimização. Uma pesquisa redundante ocorre ao combinar soluções de população que compartilham o mesmo valor objetivo. A segunda questão envolve dar ao algoritmo a capacidade de se adaptar a diferentes tamanhos de população durante o processo de otimização. O tamanho da população nos algoritmos ACO e GA é atribuído no estágio inicial ao executar o algoritmo e não pode ser alterado durante o processo de otimização.

O WFA foi adaptado e aplicado com sucesso a diferentes COPs, incluindo embalagem de lixo [13], fração de célula de manufatura [21] e problemas de agendamento de enfermagem [22]. Os resultados desses estudos mostram que o WFA tem um bom potencial para resolver vários COPs. Portanto, este trabalho tem como objetivo investigar o desempenho do WFA quando aplicado a um TSP em termos de precisão e tempo. A pesquisa anterior também mostra que o WFA apresentou uma solução mais rápida, pois apresentou um comportamento de solução dinâmico. O restante deste artigo está organizado da seguinte forma. A seção 2 discute a literatura sobre o WFA. A seção 3 apresenta a proposta de WFA para resolver o TSP, enquanto a seção 4 apresenta os experimentos e uma análise dos resultados, seguida pela discussão na seção 5. Por fim, a seção 6 conclui o artigo.

2. Trabalho relacionado

O WFA [13] é categorizado como um algoritmo metaheurístico baseado em população e é inspirado no comportamento natural da água fluindo de altitudes mais altas para mais baixas. Os fluxos de água podem se dividir ou se fundir de acordo com a topografia do espaço de busca. As principais vantagens do WFA são que ele é auto-adaptativo e dinâmico para lidar com o tamanho da população. Em outras palavras, o tamanho do agente de solução não é fixo, ao contrário das metaheurísticas tradicionais baseadas em população. O número do fluxo pode aumentar ou diminuir durante o processo de otimização e o tamanho da população muda com base na diminuição do problema e na qualidade da solução encontrada pelos agentes. Yang e Wang [13] descrevem e mapeiam o tamanho dinâmico da população com base no comportamento natural dos fluxos de água conforme eles se dividem, se movem e se fundem.

A primeira versão do WFA foi desenvolvida por Yang e Wang [13] para resolver um problema de agrupamento de objetos denominado bin-packing problem (BPP), que é um problema de otimização discreto e bem conhecido como um problema NP-difícil. O BPP com sua forte restrição de capacidade requer vários métodos heurísticos para derivar soluções viáveis ​​e ideais. O BPP tradicional é o problema de minimizar o número de caixas usadas considerando sua restrição de capacidade de peso. Os autores usam o BPP como uma referência para medir a viabilidade do WFA para resolver tais problemas de otimização. O algoritmo proposto baseia-se principalmente em buscas de vizinho de solução, onde uma estratégia de movimento de uma etapa é empregada para encontrar um vizinho de solução com um passo constante avançando para cada fluxo. Os movimentos do fluxo (mudanças de localização) são influenciados pela força gravitacional e pela lei de conservação de energia. Iteração por iteração, a água move-se constantemente para altitudes mais baixas, o que se correlaciona com melhorias na busca de soluções. O WFA começa a pesquisar no espaço do problema usando um agente de solução (fluxo) com um momento inicial. Posteriormente, o fluxo se divide em vários subfluxos quando o fluxo encontra terrenos acidentados e se o momento do fluxo excede a quantidade de divisão. Um fluxo com mais momentum gera mais fluxos de subfluxo do que um com menos momentum. Um fluxo com momentum limitado cede ao relevo e mantém um único fluxo. Muitos fluxos se fundem em um fluxo quando obtêm os mesmos valores objetivos. Para evitar pesquisas redundantes, o WFA reduz o número de agentes de solução quando vários agentes se movem para o mesmo local. Os fluxos de água também estão sujeitos à evaporação da água na atmosfera. A água evaporada retorna ao solo como chuva (precipitação). No WFA, parte do fluxo de água é removida para simular a evaporação da água. Esta operação de precipitação é implementada no WFA para simular a chuva natural e explorar uma área mais ampla.

Em [13], o desempenho do WFA é comparado com o GA, otimização por enxame de partículas (PSO) e ACO. Os resultados experimentais mostraram que o WFA supera o GA, PSO e ACO em termos de qualidade e tempo de execução. Com base nos resultados experimentais, os autores concluíram que o WFA pode ter a capacidade de resolver problemas complexos de otimização e sugeriram que ele poderia ser usado para resolver problemas de sequenciamento como o TSP.

Em 2010, o WFA foi aprimorado para resolver o problema da fração de células de manufatura [21]. O modelo utiliza o coeficiente de similaridade e métodos de atribuição de máquina, bem como atribuições de peças, para gerar uma solução inicial viável no primeiro estágio e, em seguida, no segundo estágio, uma divisão de fluxo e uma etapa de movimentação são empregadas para melhorar a solução usando um vizinho pesquisa para obter uma solução quase ótima. Os resultados mostraram que o WFA supera o algoritmo genético híbrido (HGA) e o SA. Shahrezaei et al. [22] usaram o WFA para resolver o problema de escalonamento de enfermagem, que é um problema de otimização multiobjetivo. Os autores compararam o WFA com o algoritmo de avaliação diferencial (DE), e os resultados mostraram que uma melhor qualidade da solução poderia ser alcançada usando o WFA.

A força do WFA para resolver o TSP reside em uma característica específica do WFA, a saber, o comportamento dinâmico do tamanho da população. O WFA usa soluções de população, que são mapeadas para fluxos de água, e as funções objetivo são mapeadas como terrenos. A divisão do fluxo ocorre quando terrenos acidentados são atravessados. Por outro lado, os fluxos de água se fundem quando se unem no mesmo ponto. O WFA proposto para o TSP (WFA-TSP) é baseado no WFA básico usado por [13].

3. Proposta de algoritmo semelhante ao fluxo de água para o TSP

Esta seção apresenta o WFA proposto para o TSP. O algoritmo proposto adota as operações básicas de inicialização, divisão e movimentação do fluxo, fusão do fluxo, evaporação da água e precipitação da água. A Figura 2 mostra que o fluxo de WFA-TSP é adotado do TSP básico. Ele inicia o processo de otimização com a operação de inicialização, que não é uma operação repetitiva responsável por atribuir o estado inicial do algoritmo. A operação de inicialização inclui as configurações de parâmetro e geração de solução inicial. Em geral, a melhoria das soluções começa após a conclusão da operação de inicialização. O algoritmo executa interativamente as operações restantes, como divisão e movimentação do fluxo, fusão do fluxo, evaporação da água e precipitação da água até que a condição de término seja satisfeita. As principais diferenças entre o WFA-TSP e o WFA básico [13] estão na representação da solução, na técnica usada na inicialização e no processo de divisão e movimentação do fluxo e na operação de precipitação, que sempre depende da definição da estrutura de vizinhança de um dado POLICIAL. As três operações diferentes são mostradas como processos escuros na Figura 2. O WFA básico é aplicado para o problema de empacotamento de escaninhos, onde é usado um array de duas diminuições para armazenar um conjunto de escaninhos e seus objetos para a representação da solução, enquanto para WFA-TSP é usado solução é representada como uma matriz unidimensional com um comprimento

, onde é o número de cidades no conjunto de dados original. Cada valor de célula na matriz representa o número de cidades selecionadas em uma ordem específica na solução. A Figura 1 mostra uma representação de solução de amostra de uma solução TSP. Uma solução viável é representada como uma sequência de nós, onde

representa a cidade indexada e

representa o número da cidade organizado na sequência que representa um caminho de passeio específico.


Procurar por problema de orientação ou TSP de coleta de prêmios.

Existem alguns problemas nesta categoria. São variantes do Problema do Caixeiro Viajante em que você não precisa visitar todos os clientes, mas pode escolher quais visitar. Eles recebem o nome geral de Problemas do caixeiro viajante com lucros.

  • O Problema de orientação (OP) em que você deseja maximizar o lucro coletado nos clientes visitados, sob um limite superior na duração da viagem.
  • O TSP de coleta de prêmios em que você deseja minimizar a duração da viagem, sob um limite inferior no valor do lucro coletado.
  • O Problema de passeio lucrativo em que, em vez de considerar o tempo de viagem, você considera a viagem custos. Nesse caso, você pode expressar os lucros coletados e os custos de viagem com a mesma unidade de medida (digamos, €). O objetivo é maximizar o receita (= lucro arrecadado, menos custos de viagem).

Muitos desses problemas também aparecem na literatura com variantes (vários veículos, janelas de tempo, etc.) que são comuns para outros problemas de roteamento "clássicos". Por exemplo, o OP de vários veículos é chamado de Problema de Orientação de Equipe (TOP). Adicionar janelas de tempo fornece OPTW e TOPTW. Adicionar as capacidades do veículo dá o TOP Capacitado. Algumas versões estocásticas incluem o TSP com lucros e clientes estocásticos, o OP com tempos de viagem estocásticos e o OP com lucros estocásticos.

Quanto aos métodos de solução do Problema de Orientação (que parece ser o mais adequado para a sua pergunta), até onde sei o algoritmo exato de última geração ainda é o de Fischetti, Salazar-Gonzalez e Toth. Nos últimos dois anos, novas heurísticas aprimoraram os resultados anteriormente mais conhecidos: um algoritmo genético e um ALNS.


MÉTODOS SLS

Holger H. Hoos, Thomas Stützle, em Stochastic Local Search, 2005

Pesquisa local iterada

Nas seções anteriores, discutimos vários mecanismos para evitar que as técnicas de melhoria iterativa fiquem presas em ótimos locais da função de avaliação. Indiscutivelmente, uma das idéias mais simples e intuitivas para abordar essa questão fundamental é usar dois tipos de etapas SLS: uma para alcançar os ótimos locais da forma mais eficiente possível e a outra para escapar efetivamente dos ótimos locais. Esta é a ideia-chave subjacente Pesquisa local iterada (ILS)[Lourenço et al., 2002], um método SLS que essencialmente usa esses dois tipos de etapas de pesquisa alternadamente para realizar uma caminhada no espaço de ótimo local w.r.t. a função de avaliação dada.

A Figura 2.10 mostra um esboço de algoritmo para ILS. Como de costume, o processo de pesquisa pode ser inicializado de várias maneiras, por exemplo, começando a partir de um elemento selecionado aleatoriamente do espaço de pesquisa. A partir da solução candidata inicial, uma solução ideal localmente é obtida aplicando um procedimento de pesquisa local subsidiária localSearch. Então, cada iteração do algoritmo consiste em três estágios principais: primeiro, uma perturbação é aplicada à solução candidata atual s isso produz uma solução candidata modificada s′ A partir do qual, na próxima fase, uma pesquisa local subsidiária é realizada até um ótimo local s' é obtido. Na última etapa, um critério de aceitação aceitar é usado para decidir qual dos dois ótimos locais, s ou s′, O processo de pesquisa é continuado. Ambas as funções, perturbar e aceitar, pode usar aspectos do histórico de pesquisa, por exemplo, quando os mesmos ótimos locais são encontrados repetidamente, etapas de perturbação mais fortes podem ser aplicadas. Como no caso da maioria dos outros algoritmos SLS, uma variedade de predicados de terminação terminar pode ser usado para decidir quando o processo de pesquisa termina.

Figura 2.10. Esboço do algoritmo de Iterated Local Search (ILS) para problemas de otimização. (Para obter detalhes, consulte o texto.)

Os três procedimentos localSearch, perturbar e aceitar formam o núcleo de qualquer algoritmo ILS. A escolha específica desses procedimentos tem um impacto crucial no desempenho do algoritmo resultante. Como discutiremos a seguir, esses componentes precisam se complementar para alcançar um bom equilíbrio entre a intensificação e a diversificação do processo de busca, o que é crítico para obter um bom desempenho na solução de problemas combinatórios difíceis.

É bastante óbvio que o procedimento de busca local subsidiária, localSearch , tem uma influência considerável no desempenho de qualquer algoritmo ILS. Em geral, métodos de pesquisa local mais eficazes levam a algoritmos ILS de melhor desempenho. Por exemplo, ao aplicar ILS ao Problema do Caixeiro Viajante, usar a busca local de 3 opções (ou seja, um algoritmo de melhoria iterativa com base na relação de vizinhança de 3 trocas) normalmente leva a um melhor desempenho do que usar a busca local de 2 opções, embora ainda melhor os resultados do que com a pesquisa local 3-opt são obtidos ao usar o algoritmo Lin-Kernighan como um procedimento de pesquisa local subsidiário. Embora muitas vezes os métodos de melhoria iterativa sejam usados ​​para a busca local subsidiária dentro do ILS, é perfeitamente possível usar algoritmos SLS mais sofisticados, como SA, TS ou DLS, em vez disso.

O papel de perturbar é modificar a solução candidata atual de uma forma que não seja imediatamente desfeita pela fase de pesquisa local subsequente. Isso ajuda o processo de busca a escapar efetivamente dos ótimos locais, e a fase de busca local subsequente tem a chance de descobrir diferentes ótimos locais. No caso mais simples, uma etapa de caminhada aleatória em uma vizinhança maior do que aquela usada por localSearch pode ser suficiente para atingir este objetivo. Existem também algoritmos ILS que usam perturbações que consistem em uma série de etapas simples (por exemplo, sequências de etapas de caminhada aleatória em uma vizinhança de 1 troca).

Normalmente, a força da perturbação tem uma forte influência no comprimento da fase de busca local subsequente. As perturbações fracas geralmente levam a fases de busca local mais curtas do que as perturbações fortes, porque o procedimento de busca local requer menos etapas para atingir um ótimo local. Se a perturbação for muito fraca, entretanto, a busca local irá freqüentemente cair no ótimo local recém visitado, o que leva à estagnação da busca. Ao mesmo tempo, se a perturbação for muito forte, seu efeito pode ser semelhante a um reinício aleatório do processo de busca, o que geralmente resulta em uma baixa probabilidade de encontrar soluções melhores na fase de busca local subsequente. Para resolver esses problemas, tanto a intensidade quanto a natureza das etapas de perturbação podem ser alteradas de forma adaptativa durante a pesquisa. Além disso, existem técnicas de perturbação bastante complexas, como a utilizada em Lourenço [1995], que se baseia na busca de soluções ótimas para partes da instância do problema em questão.

O critério de aceitação, aceitar, também tem uma forte influência no comportamento e no desempenho do ILS. Uma forte intensificação da busca é obtida se a melhor das duas soluções s e s′ É sempre aceito. Os algoritmos ILS que usam este critério de aceitação efetivamente realizam a melhoria iterativa no espaço de ótimos locais alcançados pelo procedimento de busca local subsidiário. Por outro lado, se o novo ótimo local, s′, É sempre aceito independentemente da qualidade de sua solução, o comportamento do algoritmo ILS resultante corresponde a um passeio aleatório no espaço do ótimo local da função de avaliação dada. Entre esses extremos, existem muitas escolhas intermediárias, por exemplo, o critério de aceitação Metropolis conhecido de Simulated Annealing foi usado em uma classe inicial de algoritmos ILS chamados Cadeias de Markov de grandes etapas [Martin et al., 1991]. Embora todos esses critérios de aceitação sejam markovianos, ou seja, eles dependem apenas de s e s ′, foi demonstrado que os critérios de aceitação que levam em consideração aspectos do histórico de pesquisa, como o número de etapas de pesquisa desde a última melhoria da solução do candidato incumbente, muitas vezes ajudam a melhorar o desempenho do ILS [Stützle, 1998c].

Exemplo 2.7 Pesquisa local iterada para o TSP

Neste exemplo, descrevemos o Algoritmo Lin-Kernighan Iterado (ILK) , um algoritmo ILS que está atualmente entre os algoritmos incompletos de melhor desempenho para o Problema do Caixeiro Viajante. ILK é baseado no mesmo espaço de busca e conjunto de soluções como usado no Exemplo 2.3 (página 75). O procedimento de pesquisa local subsidiária localSearch é o algoritmo de pesquisa de profundidade variável de Lin-Kernighan (LK) descrito na Seção 2.1 (página 68ff.) .

Como quase todos os algoritmos ILS para o Problema do Caixeiro Viajante, o ILK usa uma etapa particular de 4 trocas, chamada de movimento ponte dupla, como uma etapa de perturbação. Este movimento de ponte dupla é ilustrado na Figura 2.11 e possui a propriedade desejável de não poder ser revertido diretamente por uma sequência de movimentos de 2 trocas, conforme executado pelo algoritmo LK. Além disso, foi descoberto em estudos empíricos que esta perturbação é eficaz independentemente do tamanho do problema. Finalmente, um critério de aceitação é usado que sempre retorna o melhor das duas soluções candidatas s e s″. Uma implementação eficiente deste algoritmo estruturalmente bastante simples demonstrou atingir um desempenho excelente [Johnson e McGeoch, 1997]. (Detalhes sobre este e outros algoritmos ILS para o TSP são apresentados na Seção 8.3, página 384ff.)

Figura 2.11. Representação esquemática do movimento da ponte dupla usado no ILK. As quatro arestas tracejadas à esquerda são removidas e os caminhos restantes A, B, C, D são reconectados conforme mostrado no lado direito.

Geralmente, ILS pode ser visto como uma técnica direta, mas poderosa para estender algoritmos SLS "simples", como Melhoria Iterativa. A simplicidade conceitual da ideia subjacente levou a redescobertas frequentes e muitas variantes, a maioria das quais são conhecidas sob vários nomes, como Cadeias de Markov de grandes etapas [Martin et al., 1991], Pesquisa local encadeada [Martin e Otto, 1996], bem como, quando aplicados a algoritmos particulares, a técnicas específicas, como algoritmos Lin-Kernighan Iterados [Johnson e McGeoch, 1997]. Apesar do fato de que as ideias subjacentes são bastante diferentes, há também uma estreita relação conceitual entre ILS e certas variantes de Variável Neighbourhood Search (VNS), como Basic VNS e Skewed VNS [Hansen e Mladenović, 2002].

Os algoritmos ILS também são atraentes porque são normalmente fáceis de implementar: em muitos casos, as implementações SLS existentes podem ser estendidas para algoritmos ILS adicionando apenas algumas linhas de código. Ao mesmo tempo, os algoritmos ILS estão atualmente entre os métodos de pesquisa incompleta de melhor desempenho para muitos problemas combinatórios, sendo a aplicação mais proeminente o Problema do Caixeiro Viajante [Johnson e McGeoch, 1997 Martin e Otto, 1996]. Para uma visão geral de várias questões que surgem no projeto e implementação de algoritmos ILS, consulte Lourenço et al. [2002].


Uma estrutura de avaliação de reputação abrangente para informações geográficas voluntárias em aplicativos de crowdsensing

A informação geográfica voluntária (VGI) é o resultado de atividades em que os indivíduos, apoiados por tecnologias facilitadoras, se comportam como sensores físicos recolhendo e organizando conteúdos georreferenciados, geralmente nas suas imediações. Pesquisadores e organizações reconheceram o valor do conteúdo VGI, no entanto, esse conteúdo é tipicamente heterogêneo em qualidade e cobertura espacial. Consequentemente, para que os aplicativos se beneficiem dele, sua qualidade e confiabilidade precisam ser avaliadas com antecedência. Isso pode não ser fácil, pois, normalmente, não se sabe como o processo de coleta e organização do conteúdo VGI foi conduzido e por quem. Na literatura, várias propostas enfocam um processo indireto de avaliação da qualidade com base em pontuações de reputação. Seguindo essa perspectiva, o presente artigo fornece como contribuições principais: (i) uma arquitetura multicamadas para VGI que apóia um processo de avaliação de reputação (ii) um novo modelo abrangente para computar pontuações de reputação para dados de VGI e colaboradores, com base em dados diretos e avaliações indiretas expressas por usuários, incluindo o conceito de envelhecimento de dados (iii) uma variedade de experimentos avaliando a precisão do modelo. Por fim, discute-se a relevância da adoção desse arcabouço por meio de um cenário aplicativo de recomendação de roteiros turísticos.

Esta é uma prévia do conteúdo da assinatura, acesso através de sua instituição.


Como avaliar a qualidade do algoritmo TSP? - Sistemas de Informação Geográfica

Informação em papel

Informação do diário

Engenharia elétrica e eletrônica

p-ISSN: 2162-9455 e-ISSN: 2162-8459

Recebido: 28 de novembro de 2020 Aceito: 20 de dezembro de 2020 Publicado: 28 de dezembro de 2020

Resolvendo o problema do caixeiro viajante usando algoritmo genético

Ripon Sorma 1 , Md. Abdul Wadud 1 , S. M. Rezaul Karim 1 , F. A. Sabbir Ahamed 2

1 Departamento de EEE, Universidade Internacional de Agricultura Empresarial e Tecnologia, Uttara Dhaka, Bangladesh

2 Departamento de Física, Universidade Internacional de Agricultura Empresarial e Tecnologia, Uttara Dhaka, Bangladesh

Correspondência para: Ripon Sorma, Departamento de EEE, Universidade Internacional de Agricultura e Tecnologia de Negócios, Uttara Dhaka, Bangladesh.

E-mail:

Copyright © 2020 o (s) autor (es). Publicado pela Scientific & Academic Publishing.

Este trabalho foi licenciado pela Creative Commons Attribution International License (CC BY).
http://creativecommons.org/licenses/by/4.0/

Esta análise investigou a aplicação da regra algorítmica genética capaz de encontrar a desvantagem representativa. Algoritmos genéticos medem o quadrado capaz de gerar percursos possíveis mais curtos por informações de vitimização acumuladas entre o tipo de caminho de secreção depositado nos perímetros do gráfico representativo de drawback. As simulações de pc demonstram que a regra algorítmica genética é capaz de gerar soluções de massa para cada instância bilateral simétrica e desigual da desvantagem representativa. a tática é o exemplo de Associate in Nursing, como o temperamento simulado Associate in Nursing, computação do processo orgânico do uso produtivo de uma figura natural para criar uma regra algorítmica de otimização. Um estudo da regra algorítmica genética explica seu desempenho e mostra que está prestes a ser vista como uma variação paralela da busca tabu, com memória implícita. A regra do algoritmo genético é que o melhor em tempo de máquina, porém, menos econômico em consumo de memória. A regra algorítmica genética difere da heurística de vizinhança mais próxima porque considera a rota mais próxima da heurística de vizinhança que considera o caminho mais próximo. A regra algorítmica genética precisa de um sistema com projeto paralelo e sua implementação ideal. As atividades de cada regra algorítmica genética devem ser executadas como um método de sistema operacional separado.

Palavras-chave: Algoritmo Genético, Sistema Fuzzy, Aprendizado de Máquina, Aplicação de Algoritmo Genético, Trabalho do Mat Lab


Resumo

Problemas de roteamento geralmente utilizam redes experimentais para representar cenários do mundo real. However most ignore the inclusion of triangle inequality violations, a phenomenon resulting from delays or rounding errors within a network. This work evaluates the effect of both frequency – the number of violations – and severity – the degree of intensity of a violation – of triangle inequality and evaluates both solution quality and solution time based on Simulated Annealing, Ant Colony Optimization and Savings Algorithm methods. Findings indicate that while both frequency and severity degrade solution quality, increased levels of frequency and severity together result in significant adverse affects to solution quality. Solution time, however, is not impacted by the presence of triangle inequality violations within the network. This information should encourage practitioners to identify delays and maintain the presence of triangle inequality violations in a network to ensure accuracy of solution quality.

Destaques

► We evaluate the influence of triangle inequality violations on routing networks. ► Violations are introduced systematically by frequency and severity. ► Ant Colony Optimization outperforms Simulated Annealing on violated networks. ► Solutions with no violations are similar to those with networks with few violations. ► Triangle inequality violations affect networks similarly despite of network size.


A solution quality assessment method for swarm intelligence optimization algorithms.

Swarm intelligence (SI) optimization [1] is a class of certain population-based metaheuristics which are inspired by the behavior of swarm of agents (i.e., living beings) interacting locally with each other and with their environment. SI is relatively new subfield of artificial intelligence. The behavior of every agent in SI is simple and does not have intelligence. But a number of simple agents through local rules are able to have the emergence of collective intelligence and come to intelligent solutions for complex problems. In recent years, SI has received widespread attention in research. Typical SI schemes include ant colony optimization (ACO) [2], particle swarm optimization (PSO) [3], artificial bee colony (ABC) [4], and artificial fish swarm algorithm (AFS) [5].

ACO is a class of optimization algorithms modeled on the foraging behavior of an ant colony. In ACO, a colony of artificial ants with the artificial pheromone trails and heuristic information are stochastic constructive heuristics that build better and better solutions by using and updating pheromone trail. New solutions are generated using a parameterized probabilistic model, the parameters of which are updated using previously generated solutions so as to direct the search towards promising areas of the solution space. The first ACO algorithm is ant system (AS) [6]. In the next years, many kinds of ACO algorithms have been developed to improve the performance of AS, such as ant colony system (ACS) [7], max-min ant system (MMAS) [8], and two-stage updating pheromone for invariant ant colony optimization algorithm (TSIACO) [9]. PSO is a metaheuristic search method that simulates the movements of a flock of birds which aim to find food. PSO optimizes a problem by having a population of candidate solutions, called particles, and moving these particles around in the search space according to simple mathematical formulae over the particle's position and velocity. Each particle's movement is influenced by its local best known position and also guided toward the best known positions in the search space, which are updated as better positions founded by other particles. The first PSO algorithm was introduced by Kennedy and Eberhart. ABC is an optimization algorithm based on the intelligent foraging behavior of honey bee swarm, proposed by Karaboga in 2005. In the ABC model, the colony consists of three groups of bees: employed bees, onlookers, and scouts. It is assumed that there is only one artificial employed bee for each food source. Employed bees go to their food source and come back to hive and dance on this area. The employed bee whose food source has been abandoned becomes a scout and starts to search for finding a new food source. Onlookers watch the dances of employed bees and choose food sources depending on dances. The scout bee moves in the solution space to discover new food sources. SI has been applied to many applications problems, such as knapsack problems, scheduling problems, assignment problems, multiobjective optimization problem, and cluster analysis.

Although great progress has been achieved in application, there is also a basic question, which is how to quantify the goodness of the solution obtained in finite time, needed to be answered. We call it solution quality evaluation problem. At present, the existing researches focus on the solution "value performance," namely, the difference between the solution obtained by algorithm and the optimal solution of the problem. The general use of the method is ratio analysis, namely, ratio between solution obtained by algorithm and optimal solution. If the ratio is closer to 1, it means that higher quality is obtained by algorithm and the algorithm is more effective. Competitive analysis [10] of online algorithm also can be employed. The drawback of two methods is that they need optimal solution of problem. There are some approximation methods used to estimate optimal for example, extreme value theory [11] and Lagrange's relaxation method [12], to get the solution value or bound to replace the optimal solution in practical problems. This analysis method generally requires strong theoretical basis of mathematic and strong math skills, and even it is difficult or impossible to give this kind of boundary for most of the problems. In addition to bias in the theoretical study of evaluation methods, some scholars pay more attention to the experimental analysis method. Hoos and Stutzle [13] proposed to analyze the performance and behavior of stochastic local search algorithm by experimental analysis method. The performance of several existing particle swarm optimization algorithms was compared by using this method, and an improved particle swarm optimization algorithm was introduced according to the law in [14].

With development of the ordinal optimization (OO) theory [15], the research changes the angle to solution "ordinal performance" to evaluate solution quality of optimization method. Here the solution "ordinal performance" refers to the judgment about whether the solution is belonging to the good enough solution set. Shen et al. [16] used solution comparison between heuristic methods and uniform sampling to evaluate the solution. The evaluation criterion is alignment probability used in OO. As the extension of this work, author used the knowledge of hypothesis testing to develop it into a theory in [17]. In this paper, we proposed an experimental analysis method based on the analysis of search space and characteristic of algorithm itself to evaluate the solution quality for SI.

The rest of this paper is organized as follows: Section 2 reviews the basic idea of OO and indicates the difficulty of quantifying solution quality by analyzing the existing method. Section 3 describes our experimental analysis method detailed. Some simulation results are presented in Section 4 to show the feasibility of proposed method. Finally, Section 5 concludes the paper.

2. Basics of Ordinal Performance

The ordinal performance is concerned with whether the solution belongs to the good enough set. The evaluation criterion is alignment probability. The definition of good enough set and alignment probability is introduced in OO. So, in this section, we briefly overview OO.

2.1. Brief Overview of OO. OO was first introduced by Ho et al. in 1992 [15], which has become an important tool for optimizing discrete event dynamic system (DEDS). There are two basic ideas in OO. The first idea is ordinal comparison that is, "order" is easier to ascertain than "value." The second idea is goal softening. Instead of only caring about optimal solution, OO is willing to settle for the "good enough" solution.

In OO, [THETA] is the search space and satisfies [absolute value of ([THETA])] = N. The "good enough" set G is defined as the top-g of the search space [THETA] or top p% of the search space [THETA]. It satisfies [absolute value of (G)] = g. Selected set S is selected by rule and satisfies [absolute value of (S)] = s. OO can guarantee that S contains top-g solutions of the search space with a high probability. It is called alignment probability in OO and denoted by [P.sub.AP].

2.2. Ordinal Performance. The research of solution quality evaluation method transfers from the value performance to the ordinal performance, after the definition of the good enough set, selected set, and alignment probability introduced. Based on this knowledge, Shen et al. [17] proposed evaluation method, called ordinal optimization ruler (OO ruler), using the related knowledge of hypothesis testing. So we can use OO ruler to qualify the ordinal performance of solution. One of the intuitive understandings of OO ruler is that uniform samples are taken out from the whole search space and evaluated with a crude but computationally easy model when applying OO. After ordering via the crude performance estimates, the lined-up uniform samples can be seen as an approximate ruler. By comparing the heuristic design with such a ruler, we can quantify the heuristic design, just as we measure the length of an object with a ruler. If the OO ruler gets from all the solutions, it is an accurate ruler. But this is obviously an ideal situation for practical problems. It is proved that approximate OO ruler is also effective.

Theorem 1 (see [17]). If the k solution obtained by optimization algorithm is better than t solution of selected set obtained by uniform sampling, we can judge that the k solution belongs to the top p% of the search space [C] at least. And the type II error probability is not larger than [[beta].sub.0]. The relation between s, [[beta].sub.0], t, and p% is determined by

[MATHEMATICAL EXPRESSION NOT REPRODUCIBLE IN ASCII], (1)

where [MATHEMATICAL EXPRESSION NOT REPRODUCIBLE IN ASCII] represents the number of different choices of s designed out of j distinguished ones.

In the case of given parameters of s and [[beta].sub.0], we can get relation between t and p% through the list method.

For an arbitrary solution obtained by heuristic algorithm, we only need to compare it whether satisfies the conditions of Theorem 1, then we can make the corresponding judgment, so as to realize the evaluation ordinal performance of solution. But OO ruler has a premise. To get OO ruler, uniform sampling for search space is needed. It is also prerequisite for OO. The so-called uniform sampling refers to the same probability of getting arbitrary solution. It is also the reason why the uniform sampling can provide quantitative reference. But, for some problems, it is difficult to achieve uniform sampling, and thus it will not be able to get OO ruler. In addition, the price of getting OO ruler for huge solution space is very high. These two problems limit the application of OO ruler in solution evaluation. However, the introduction of ordinal performance has great inspiration for the research of solution quality evaluation for SI.

3. The Framework of Assessment Method

In this section, we take traveling salesman problem (TSP) as an example to describe experimental analysis method of solution quality evaluation.

3.1. Sample Characteristics of SI. For SI, the feature of the algorithm itself determines that the sampling method in the search space is not uniform. Especially by the partial reinforcement effect, it makes the algorithm more and more concentrated in certain regions. So it is not suitable for evaluating method directly using OO ruler. In addition, the algorithm produces a large number of feasible solutions. The feasible solution contains the search characteristics of some algorithms and the distribution of the solution space. To obtain the hidden information and its rational utilization through some analysis methods, we need to do some research. It plays an important role in the research of quality evaluation and improving the algorithm performance.

3.2. The Framework of Assessment Method. Based on the above analysis, this paper presents a general framework of the quality evaluation method for SI. The framework contains three procedures. First, to get some internal approximate uniform subclass, using cluster method, the solution samples (corresponding to selected subset of OO) were homogeneous processing. Second, discrete probability distribution solution samples of each subclass and the scale relationship of the subclass are estimated in the fitness space. Based on the characteristics of the subclass, the presupposition ratio of the good enough set is distributed to each subclass. Last, alignment probability is calculated according to the model of solution quality evaluation, so as to complete the evaluation of the solution quality.

3.2.1. Uniform Clustering for Nonuniform Samples. According to the characteristics of discrete space, uniform clustering of samples is that obtaining probability of solution is approximating same. Compared with the continuous space, clustering is very different from discrete space. General discrete spatial distance features are defined with the question, and not as the continuous space as a distance to define general way. This makes clustering method based on grid no longer applicable, which is used in continuous space such as density clustering and clustering method based on grid. And the huge solution sample set also limits the use of some special clustering method. Therefore, we need to design a suitable and efficient clustering algorithm based on demand.

Approximate sampling probability is the purpose of clustering. The approximate sampling probability here refers to the neighbor characteristics (including the distance and number of nearest neighbors) consistent approximation. A feasible method for TSP is to calculate the distance between all solution samples. Then clustering is done according to the nearest neighbor statistical feature of each sample distance. But it is only applicable to the small size of the solution sample. Another possible method is that the clustering centers are selected from the best solutions. The distance is calculated between each feasible solution and the cluster center. Then the solution samples are clustered according to the distance. The calculation complexity of this algorithm is low. It is more suitable for clustering large scale solution samples. In the next section, we use this clustering method.

3.2.2. The "Good Enough" Set Decomposition. The solution alignment probability is calculated using a priori ratio of the good enough set (the ration between the good enough set and search space) in OO. The ratio of each kind of the good enough sets is needed to know after clustering. The prior ratio requires decomposing prior ratio of each class. This decomposition has a certain relationship with each class distribution of samples and the class size. Therefore, the distribution characteristics of solution in the fitness value, as well as proportional relation of class size, are needed to estimate.

Estimation of distribution of solution in the fitness value is problem of one-dimensional distribution sequence estimation. The purpose of distribution estimation is to obtain the good enough set distribution. If the fitness value is arranged according to the order from small to large, ordered performance curve (OPC) can be obtained. For the minimization problem, the good enough set is in the first half of the OPC. To obtain a true estimation of the good enough set, you need to consider the types of OPC.

3.2.3. Ordinal Performance Estimation. The original search space after clustering is divided into l approximate uniform partition. Search space [[THETA].sub.k], the good enough set [G.sub.i], and selected set St of each partition and search space 0, good enough set G, and selected set S of the original search space have the following correspondence in the collection and base:

[MATHEMATICAL EXPRESSION NOT REPRODUCIBLE IN ASCII], (2)

where [absolute value of (*)] is the base of set *.

Since the probability of any feasible solution pumped into each subclass is the same, for a sampling result [[theta].sub.i] has

P([[theta].sub.s] = [[theta].sub.i]) = 1/[N.sub.i], [for all][[theta].sub.i], [member of] [[THETA].sub.i]. (3)

In this paper, we only concern the selected set whether has at least one solution in good enough set. So we can draw the following conclusions:

[MATHEMATICAL EXPRESSION NOT REPRODUCIBLE IN ASCII]. (4)

3.2.4. Procedures of Assessment Method. The main steps to get the evaluation method by the above analysis are described in Algorithm 1.

4. Experimental Results and Analysis

In this section, we take the Hopfield 10-city problem, which is also used in [17], as the example to demonstrate our experimental analysis method. The coordinates of the 10 cities are <(0.4000, 0.4439) (0.2439, 0.1463) (0.1707, 0.2293) (0.2293, 0.7610) (0.5171, 0.9414) (0.8732, 0.6536) (0.6878, 0.5219) (0.8488, 0.3609) (0.6683, 0.2536) (0.6195, 0.2634)>. There is (10-1)! = 362880 solutions in the search space. The best path is [1,4, 5, 6,7,8, 9,10,2, 3] or [1, 3,2,10, 9,8,7, 6, 5,4]. Here we define [absolute value of (G)] = 0.005N. We use two groups of experimental simulation to demonstrate effectiveness of proposed method, where [P.sub.AP] is alignment probability. Statistics value represents the alignment probability by our methods. Computational value is the alignment probability, and the error represents the difference of two alignment probabilities.

4.1. Evaluation Index. Alignment probability is a measure of whether optimal solution belongs to the good enough set. It is a probability value. Therefore, studying this value has little significance in one experiment. It is needed to do many experiments to study the statistical laws. So, each kind of experiment independently does K times. If the optimal of i time belongs to the good enough set, let [s.sub.i] = 1 otherwise [s.sub.i] = 0. Let [P.sub.g] be statistical frequency. Then, for K times experiment, we have

[P.sub.g] = [[summation].sup.r.sub.i=1] r = 1, 2, . K. (5)

From (5), the following can be seen, when K tends to infinity:

[MATHEMATICAL EXPRESSION NOT REPRODUCIBLE IN ASCII], (6)

where [P'.sub.g] is the alignment probability value, but it is generally difficult to obtain. In general, we only need to compute the [P.sub.g] value which may be tested experimentally.

Let [[bar.P].sub.A](r) be the alignment probability in an experiment by the evaluation method [P.sub.A] is average value of [[bar.P].sub.A](r). Considerar

[P.sub.A] = [[summation].sup.r.sub.i=1] [[bar.P].sub.A] (r)/r, r = 1, 2, . K. (7)

Let [e.sub.r] be the absolute value of error of [P.sub.g] and [P.sub.A] that is,

[e.sub.r] = [absolute value of ([P.sub.A] - [P.sub.g])]. (8)

In the following experiments, we are using [e.sub.r] as the standard evaluation index.

4.2. Ordinal Performance Evaluation of Nonuniform Sampling. The solution space is sorted according to the fitness values and gets the whole solution space of the sample set, denoted by [OMEGA]. We deliberately partition the search space into the same two parts [[OMEGA].sub.1] and [[OMEGA].sub.2]. Then we sample, respectively, in parts [[OMEGA].sub.1] and [[OMEGA].sub.2], respectively. Times are denoted by [n.sub.1] and [n.sub.2]. Then the total number of samplings is n. Então

Let K = 5000 and n = 3000. Because the value of ration can be divided into two cases. One is no less than 1, and the other is less than 1. So, the following points are discussed.

4.2.1. Ratio [greater than or equal to] 1. This case illustrates the sampling times in area [[OMEGA].sub.1] more than in area [[OMEGA].sub.2], and the good enough set is in area [[OMEGA].sub.1]. The experiment results can be seen in Figures 1 and 2. The abscissa is value of ratio. The values from left to right, respectively, are 1, 2, 5, 10, and 100. In Figure 1, we can see that, with the increasing value of ratio, the sampling point in area [[OMEGA].sub.1] is increasing. The probability of obtaining the good enough solution increases as the good enough set is in area [[OMEGA].sub.1]. In addition, except for the case of ratio = 1, [P.sub.A] is slightly higher than [P.sub.g]. The rest of [P.sub.A] are lower than [P.sub.g]. The error of two probabilities seen from Figure 2 is lower and no more than 2% generally.

4.2.2. Ratio < 1. This case illustrates the sampling times in area [[OMEGA].sub.2] more than in area [[OMEGA].sub.1]. The experiment results can be seen in Figures 3 and 4. The abscissa is value of ratio. The values from left to right, respectively, are 0.01, 0.1, 0.2, 0.5, and 0.9. In Algorithm 1 and Figure 1, we can see that the error of two probabilities is high. But the error decreases with the ratio increasing.

4.3. Ordinal Performance Evaluation of ACO. Let K = 2000 the computational results can be seen from Figures 5 and 6. From Figure 5 we can see that the alignment probability of [P.sub.A] and [P.sub.g] is close to 1 and the difference is low. The [P.sub.A] is slightly lower than [P.sub.g]. It is showed that the evaluation method is conservative. The error range is less than 0.1%. This shows that the calculation result is credible.

In order to further study the relation between the parameters of ant colony algorithm and evaluation results, we focus on the relationship between the maximum number of iterations changes and ant number changes and evaluation of results. The results can be seen from Tables 1 and 2.

First, we study the ant number. The ant number m belongs to the set <2,4,5,8,10>. From Tablet we can see that the value of [P.sub.A] is increasing with the m increasing. The error of probability is reducing with the m increasing. This shows that the size of solution has some influence on the evaluation method. Second, we study the iteration number [N.sub.max] which is selected from the set <10,20,30, 50,100,200>. From Table 2 we can see that [P.sub.A] is much less than [P.sub.g] when [N.sub.max] is 10. But, with [N.sub.max] increasing, the error is reducing. The reason is that the information of space is accumulated with [N.sub.max] increasing. It is showed that the more the utilization of information of the solution space, the more accurate the result.

4,4. Ordinal Performance Evaluation of PSO and AFS. We also do the same comparison for PSO and AFS. The results can be seen from Tables 3 and 4. m is particle number in Table 3 and m is fish number in Table 4. From Tables 3 and 4 we can see that the value of [P.sub.A] is increasing with the m increasing and the maximum number of iterations [N.sub.max]. The average solution is also improved. It is showed that the solution quality is effect on [P.sub.A].

A solution assessment method of SI is presented in this paper. Based on the analysis of the existing knowledge foundation, combined with the ordinal optimization theory, the ordinal performance is research target to evaluate solution. Then based on the analysis of characteristics of SI algorithms, the framework of evaluation method is given. The detailed steps of the method are presented. Finally, taking the Hopfield 10-city problem as an example, some simulation experiments are done. The experimental results show that the proposed method is feasible.

The authors declare that there is no conflict of interests regarding the publication of this paper.

This work was supported by the National Natural Science Foundation of China (Grant nos. 61305149, 61104222, and 61304175) and the Science Fundamental Research Project of Jiangsu Normal University (Grant no. 12XL063). The authors are also thankful to the anonymous referees.

[1] J. Kennedy, R. C. Eberhart, and Y. H. Shi, Swarm Intelligence, Morgan Kaufmann, San Mateo, Calif, USA, 2001.

[2] M. Dorigo and T. Stutzle, Ant Colony Optimization, MIT Press, Cambridge, Mass, USA, 2004.

[3] J. Kennedy and R. Eberhart, "Particle swarm optimization," in Proceedings of the IEEE International Conference on Neural Networks, pp. 1942-1948, December 1995.

[4] D. Karaboga and B. Akay, "A survey: algorithms simulating bee swarm intelligence," Artificial Intelligence Review, vol. 31, nº 14, pp. 61-85, 2009.

[5] X.-L. Li, Z.-J. Shao, and J.-X. Qian, "An optimizing method based on autonomous animals: fish-swarm algorithm," System Engineering Theory and Practice, vol. 22, não. 11, pp. 32-38, 2002.

[6] M. Dorigo, V. Maniezzo, and A. Colorni, "Ant system: optimization by a colony of cooperating agents," IEEE Transactions on Systems, Man, and Cybernetics, B: Cybernetics, vol. 26, no. 1, pp. 29-41, 1996.

[7] M. Dorigo and L. M. Gambardella, "Ant colony system: a cooperative learning approach to the traveling salesman problem," IEEE Transactions on Evolutionary Computation, vol. 1, não. 1, pp. 53-66, 1997.

[8] T. Stutzle and H. H. Hoos, "MAX-MIN ant system," Future Generation Computer Systems, vol. 16, no. 8, pp. 889-914, 2000.

[9] Z. J. Zhang and Z. R. Feng, "Two-stage updating pheromone for invariant ant colony optimization algorithm," Expert Systems with Applications, vol. 39, no. 1, pp. 706-712, 2012.

[10] J. Aspnes and O. Waarts, "Compositional competitiveness for distributed algorithms," Journal of Algorithms, vol. 54, não. 2, pp. 127-151, 2005.

[11] J. Hsler, P. Cruz, A. Hall, and C. M. Fonseca, "On optimization and extreme value theory," Methodology and Computing in Applied Probability, vol. 5, não. 2, pp. 183-195, 2003.

[12] D. P. Bertsekas, Nonlinear Programming, Athena Scientific Press, Belmont, Mass, USA, 1999.

[13] H. H. Hoos and T. Stutzle, Stochastic Local Search: Foundations and Applications, Morgan Kaufmann Press, San Francisco, Calif, USA, 2005.

[14] M. A. Montes de Oca, T Stutzle, M. Birattari, and M. Dorigo, "Frankenstein's PSO: a composite particle swarm optimization algorithm," IEEE Transactions on Evolutionary Computation, vol. 13, no. 5, pp. 1120-1132, 2009.

[15] Y. C. Ho, R. S. Sreenivas, and P. Vakili, "Ordinal optimization of DEDS," Discrete Event Dynamic Systems, vol. 2, no. 1, pp. 61-88, 1992.

[16] Z. Shen, Y.-C. Ho, and Q.-C. Zhao, "Ordinal optimization and quantification of heuristic designs," Discrete Event Dynamic Systems: Theory and Applications, vol. 19, não. 3, pp. 317-345, 2009.

[17] Z. Shen, Q.-C. Zhao, and Q.-S. Jia, "Quantifying heuristics in the ordinal optimization framework," Discrete Event Dynamic Systems: Theory and Applications, vol. 20, não. 4, pp. 441-471, 2010.

Zhaojun Zhang, (1) Gai-Ge Wang, (2) Kuansheng Zou, (1) and Jianhua Zhang (1)

(1) School of Electrical Engineering and Automation, Jiangsu Normal University, Xuzhou, Jiangsu 221116, China

(2) School of Computer Science and Technology, Jiangsu Normal University, Xuzhou, Jiangsu 221116, China


Assista o vídeo: Solving Travelling Salesman ProblemTSP using Excel Solver