uma nova biografia

blog

LarLar / blog / uma nova biografia

Apr 03, 2023

uma nova biografia

Relatórios Científicos volume 13,

Scientific Reports volume 13, Número do artigo: 8775 (2023) Citar este artigo

2297 acessos

Detalhes das métricas

Este artigo apresenta um novo algoritmo metaheurístico bioinspirado chamado Walrus Optimization Algorithm (WaOA), que imita o comportamento de morsas na natureza. As inspirações fundamentais empregadas no design do WaOA são o processo de alimentação, migração, fuga e luta contra predadores. As etapas de implementação do WaOA são modeladas matematicamente em três fases de exploração, migração e exploração. Sessenta e oito funções de benchmark padrão consistindo em unimodal, multimodal de alta dimensão, multimodal de dimensão fixa, suíte de testes CEC 2015 e suíte de testes CEC 2017 são empregadas para avaliar o desempenho do WaOA em aplicativos de otimização. Os resultados de otimização de funções unimodais indicam a capacidade de exploração de WaOA, os resultados de otimização de funções multimodais indicam a capacidade de exploração de WaOA e os resultados de otimização dos conjuntos de testes CEC 2015 e CEC 2017 indicam a alta capacidade de WaOA em equilibrar exploração e exploração durante o processo de busca. O desempenho do WaOA é comparado com os resultados de dez algoritmos metaheurísticos bem conhecidos. Os resultados das simulações demonstram que o WaOA, devido à sua excelente capacidade de equilibrar exploração e explotação, e sua capacidade de fornecer resultados superiores para a maioria das funções de benchmark, exibiu um desempenho notavelmente competitivo e superior em contraste com outros algoritmos comparáveis. Além disso, o uso do WaOA na resolução de quatro problemas de engenharia de projeto e vinte e dois problemas de otimização do mundo real do conjunto de testes CEC 2011 demonstra a aparente eficácia do WaOA em aplicativos do mundo real. Os códigos MATLAB do WaOA estão disponíveis em https://uk.mathworks.com/matlabcentral/profile/authors/13903104.

Recentemente, muitos problemas de otimização em ciência, engenharia, indústria e tecnologia devem ser resolvidos usando técnicas de otimização. Do ponto de vista matemático, variáveis ​​de decisão, restrições e funções objetivo são as três partes principais da modelagem de um problema de otimização. O objetivo da otimização é quantificar as variáveis ​​de decisão do problema de modo que, respeitando as restrições, leve a atingir o valor mínimo (problemas de minimização) ou máximo (problemas de maximização) para a função objetivo1. As técnicas aplicadas na resolução de problemas de otimização enquadram-se nas abordagens determinística e estocástica. Para escolher a técnica adequada para resolver um problema de otimização, o usuário precisa de informações completas sobre a comparação de técnicas de solução de problemas. Em contraste, muitas vezes é necessário mais do que as informações disponíveis do usuário. Abordagens estocásticas, que são baseadas principalmente em busca aleatória no espaço de resolução de problemas, podem lidar com problemas de caixa preta de forma mais simples do que muitos algoritmos determinísticos. Essas abordagens também são adequadas para problemas em que as avaliações das funções são corrompidas por ruído. Cada abordagem determinística e estocástica tem várias vantagens e, geralmente, nenhuma pode ser considerada superior. Mais informações e uma comparação detalhada das abordagens determinística e estocástica são fornecidas no livro de Krasov2.

Como uma das abordagens estocásticas mais amplamente utilizadas, os algoritmos metaheurísticos, usando operadores estocásticos, conceitos de tentativa e erro e pesquisa estocástica, podem fornecer soluções apropriadas para problemas de otimização sem exigir informações derivadas da função objetivo. A simplicidade das ideias, a fácil implementação, a independência do tipo de problema e a não necessidade de um processo de derivação estão entre as vantagens que levaram à popularidade e difusão dos algoritmos metaheurísticos entre os pesquisadores3. O processo de otimização em algoritmos metaheurísticos começa com a geração aleatória de várias soluções iniciais viáveis ​​no espaço de busca do problema. Então, em um processo iterativo, com base na eficácia das etapas do algoritmo, essas soluções iniciais são aprimoradas. Por fim, a melhor solução encontrada durante a implementação do algoritmo é apresentada como solução do problema4. No entanto, nenhum dos algoritmos metaheurísticos garante que eles serão capazes de fornecer a solução global ótima. Essa insuficiência se deve à natureza da busca aleatória nesses tipos de abordagens de otimização. Assim, as soluções derivadas de algoritmos metaheurísticos são conhecidas como soluções quase-ótimas5.