Campos relacionados
Algoritmos evolutivos são um subcampo da computação evolutiva.
• - As estratégias de evolução (ES, ver Rechenberg, 1994) evoluem os indivíduos através de mutação e recombinação intermediária ou discreta. Os algoritmos ES são especialmente projetados para resolver problemas no domínio do valor real. Eles usam autoadaptação para ajustar os parâmetros de controle de busca. A desrandomização da autoadaptação levou à atual Estratégia de Evolução de Adaptação da Matriz de Covariância (CMA-ES).
• - A programação evolutiva (PE) envolve populações de soluções com mutação e seleção e representações arbitrárias. Ele usa autoadaptação para ajustar parâmetros e pode incluir outras operações de variação, como combinar informações de vários pais.
• - O Algoritmo de Distribuição de Estimativa (EDA) substitui os operadores de repetição tradicionais por operadores orientados por modelo. Esses modelos são aprendidos com a população usando técnicas de aprendizado de máquina e representados como Modelos Gráficos Probabilísticos, a partir dos quais novas soluções podem ser amostradas [45] [46] ou geradas a partir de cruzamentos cromossômicos guiados [47].
• - A programação de expressão genética (GEP) também utiliza populações de programas de computador. Esses programas de computador complexos são codificados em cromossomos lineares mais simples de comprimento fixo, que são então expressos como árvores de expressão. Árvores de expressão ou programas de computador evoluem porque os cromossomos sofrem mutação e recombinação de maneira semelhante ao GA canônico. Mas graças à organização especial dos cromossomas GEP, estas modificações genéticas resultam sempre em programas de computador válidos. [48].
• - A programação genética (GP) é uma técnica relacionada popularizada por John Koza na qual programas de computador, em vez de parâmetros funcionais, são otimizados. A programação genética geralmente usa estruturas de dados internas baseadas em árvores para representar programas de computador para adaptação, em vez das estruturas de lista típicas dos algoritmos genéticos.
• - O agrupamento de algoritmos genéticos (GGA) é uma evolução do AG onde o foco muda de elementos individuais, como no AG clássico, para grupos ou subconjuntos de elementos. [49] A ideia por trás desta evolução do AG proposta por Emanuel Falkenauer é que a solução de alguns problemas complexos, como problemas de agrupamento ou partição onde um conjunto de itens deve ser dividido em um grupo de elementos disjuntos de uma forma ótima, seria melhor alcançado obtendo características de grupos de itens equivalentes a genes. Esses tipos de problemas incluem embalagem de contêineres, balanceamento de linhas, agrupamento em relação a uma medida de distância, pilhas iguais, etc., nos quais os AGs clássicos demonstraram baixo desempenho. Tornar genes equivalentes a grupos envolve cromossomos que geralmente têm comprimento variável e operadores genéticos especiais que manipulam grupos inteiros de elementos. Para embalagens de contêineres, em particular, um GGA hibridizado com o Critério de Dominância de Martello e Toth é possivelmente a melhor técnica até o momento.
• - Algoritmos evolutivos interativos são algoritmos evolutivos que utilizam avaliação humana. Eles são normalmente aplicados a domínios onde é difícil projetar uma função de aptidão computacional, por exemplo, evoluindo imagens, músicas, designs artísticos e formas para atender às preferências estéticas dos usuários.
• - A otimização de colônias de formigas (ACO) utiliza muitas formigas (ou agentes) equipadas com um modelo de feromônio para percorrer o espaço de solução e encontrar áreas produtivas locais. Uma estimativa do algoritmo de distribuição é considerada.
• - A otimização por enxame de partículas (PSO) é um método computacional para otimização multiparamétrica que também utiliza uma abordagem baseada na população. Uma população (enxame) de soluções candidatas (partículas) se move no espaço de busca, e o movimento das partículas é influenciado tanto pela sua posição mais conhecida quanto pela posição global mais conhecida do enxame. Assim como os algoritmos genéticos, o método PSO depende da troca de informações entre membros da população. Em alguns problemas, o PSO é frequentemente mais eficiente computacionalmente do que os AGs, especialmente em problemas irrestritos com variáveis contínuas.
• - O Algoritmo Memético (MA), frequentemente denominado algoritmo genético híbrido, entre outros, é um método de base populacional em que as soluções também estão sujeitas a fases de melhoria local. A ideia de algoritmos meméticos, que, diferentemente dos genes, podem se adaptar. Em algumas áreas problemáticas eles se mostram mais eficientes que os algoritmos evolutivos tradicionais.
• - Os algoritmos bacteriológicos (BA) são inspirados na ecologia evolutiva e, mais especificamente, na adaptação bacteriológica. A ecologia evolutiva é o estudo dos organismos vivos no contexto do seu ambiente, com o objetivo de descobrir como eles se adaptam. Seu conceito básico é que em um ambiente heterogêneo não existe um indivíduo que se encaixe em todo o ambiente. Portanto, é preciso raciocinar no nível da população. Acredita-se também que os BAs poderiam ser aplicados com sucesso a problemas complexos de posicionamento (antenas de telefonia celular, planejamento urbano, etc.) ou mineração de dados. [52].
• - O algoritmo cultural (CA) consiste no componente populacional quase idêntico ao do algoritmo genético e, além disso, um componente de conhecimento denominado espaço de crenças.
• - O algoritmo de busca diferencial (DS) é inspirado na migração de superorganismos.
• - A adaptação gaussiana (adaptação normal ou natural, abreviada como NA para evitar confusão com GA) tem como objetivo maximizar o desempenho de fabricação de sistemas de processamento de sinais. Também pode ser usado para otimização paramétrica comum. Baseia-se em um determinado teorema válido para todas as regiões de aceitabilidade e todas as distribuições gaussianas. A eficiência do NA depende da teoria da informação e de um certo teorema da eficiência. Sua eficiência é definida como informação dividida pelo trabalho necessário para obtê-la. Como NA maximiza a aptidão média em vez da aptidão individual, a paisagem suaviza-se de tal forma que os vales entre os picos podem desaparecer. Portanto, tem uma certa “ambição” de evitar picos locais no cenário do fitness. NA também é bom para escalar cristas acentuadas, adaptando a matriz de momentos, porque NA pode maximizar a desordem (informação média) da Gaussiana enquanto mantém simultaneamente a aptidão média constante.
• - O recozimento simulado (SA) é uma técnica de otimização global relacionada que atravessa o espaço de busca testando mutações aleatórias em uma solução individual. Uma mutação que aumenta a aptidão é sempre aceita. Uma mutação que diminui a aptidão é aceita probabilisticamente com base na diferença na aptidão e em um parâmetro de temperatura decrescente. No jargão SA, falamos em buscar o menor nível de energia em vez do máximo de condicionamento físico. SA também pode ser usado dentro de um algoritmo GA padrão, começando com uma taxa de mutação relativamente alta e diminuindo ao longo do tempo ao longo de um determinado cronograma.
• - A busca tabu (TS) é semelhante ao recozimento simulado, pois ambos atravessam o espaço de solução testando mutações de uma solução individual. Enquanto o recozimento simulado gera apenas uma solução mutada, a busca tabu gera muitas soluções mutadas e move-se para a solução com a energia mais baixa daquelas geradas. Para evitar loops e encorajar movimentos adicionais através do espaço de soluções, uma lista tabu de soluções parciais ou completas é mantida. É proibido passar para uma solução que contenha elementos da lista tabu, que é atualizada à medida que a solução atravessa o espaço de soluções.
• - A Otimização Extrema (EO), diferentemente dos AGs, que trabalham com uma população de soluções candidatas, desenvolve uma solução única e faz modificações locais nos piores componentes. Isso requer que seja selecionada uma representação apropriada que permita que componentes individuais da solução recebam uma medida de qualidade (“adequação”). O princípio que rege este algoritmo é o da melhoria emergente, removendo seletivamente componentes de baixa qualidade e substituindo-os por um componente selecionado aleatoriamente. Isto está decididamente em desacordo com um AG que seleciona boas soluções na tentativa de criar soluções melhores.
• - O método de entropia cruzada (CE) gera soluções candidatas usando uma distribuição de probabilidade parametrizada. Os parâmetros são atualizados minimizando a entropia cruzada, para gerar melhores amostras na próxima iteração.
• - A otimização de busca reativa (RSO) defende a integração de técnicas de aprendizagem subsimbólica em heurísticas de busca para resolver problemas complexos de otimização. A palavra reativo sugere uma resposta rápida a eventos durante a busca por meio de um ciclo interno de feedback on-line para autoajuste de parâmetros críticos. Metodologias de interesse para pesquisa reativa incluem aprendizado de máquina e estatística, particularmente aprendizado por reforço, aprendizado ativo ou de consulta, redes neurais e metaheurísticas.
• - Redes Neurais.
• - Lógica difusa.
• - Rede bayesiana.
• - Mínimo/máximo local.
• - Inteligência Artificial.
• - Robótica Evolutiva").
• - Emergência "Emergência (filosofia)").
• - Autômato celular.
• - Código Santillán").
• - Banzhaf, Wolfgang; Nordin, Peter; Keller, Robert; Francone, Frank (1998). Programação genética - uma introdução. São Francisco, CA: Morgan Kaufmann. ISBN 978-1558605107.
• - Bies, Robert R.; Muldoon, Matthew F.; Pollock, Bruce G.; Manuck, Steven; Smith, Gwenn; Venda, Mark E. (2006). "A abordagem de aprendizado de máquina híbrida baseada em algoritmo genético para seleção de modelos." Jornal de Farmacocinética e Farmacodinâmica. Holanda: Springer: 196-221.
• - Carmona, Enrique J.; Fernández, Severino (2020). Fundamentos da Computação Evolucionária. Marcombo. ISBN 978-8426727558.
• -Cha, Sung-Hyuk; Tappert, Charles C. (2009). "Algoritmo genético para construção de árvores de decisão binárias compactas." Jornal de pesquisa de reconhecimento de padrões. 4 (1): 1-13. doi:10.13176/11.44.
• - Eiben, Agoston; Smith, James (2003). Introdução à Computação Evolutiva. Springer. ISBN 978-3540401841.
• - Fraser, Alex S. (1957). "Simulação de Sistemas Genéticos por Computadores Digitais Automáticos, I. Introdução." Jornal Australiano de Ciências Biológicas. 10: 484-491.
• -Goldberg, David (1989). Algoritmos Genéticos em Busca, Otimização e Aprendizado de Máquina. Leitura, MA: Addison-Wesley Professional. ISBN 978-0201157673.
• -Goldberg, David (2002). O Design da Inovação: Lições de e para Algoritmos Genéticos Competentes. Norwell, MA: Kluwer Academic Publishers. ISBN 978-1402070983.
• - Fogel, David. Computação Evolucionária: Rumo à Nova Filosofia da Inteligência de Máquina (3ª ed.). Piscataway, NJ: IEEE Press. ISBN 978-0471669517.
• -Hingston, Philip; Barone, Luigi Michalewicz, Zbigniew (2008). Design by Evolution: Avanços no Design Evolucionário. Springer. ISBN 978-3540741091.
• - Holanda, John (1992). Adaptação em Sistemas Naturais e Artificiais. Cambridge, MA: MIT Press. ISBN 978-0262581110.
• - Koza, John (1992). Programação genética: sobre a programação de computadores por meio da seleção natural. Cambridge, MA: MIT Press. ISBN 978-0262111706.
• - Michalewicz, Zbigniew (1996). Algoritmos Genéticos + Estruturas de Dados = Programas de Evolução. Springer-Verlag. ISBN 978-3540606765.
• - Mitchell, Melanie (1996). Uma introdução aos algoritmos genéticos Cambridge, MA: MIT Press. ISBN 9780585030944.
• - Poli, R.; Langdon, WB; McPhee, N.F. (2008). Um guia de campo para programação genética. Lulu.com, disponível gratuitamente na internet. ISBN 978-1-4092-0073-4.
• - Rechenberg, Ingo (1994): Evolutionsstrategie '94, Stuttgart: Fromman-Holzboog.
• - Schmitt, Lothar M; Nehaniv, Cristóvão L; Fujii, Robert H (1998), Análise linear de algoritmos genéticos, Theoretical Computer Science 208: 111-148.
• - Schmitt, Lothar M (2001), Teoria dos Algoritmos Genéticos, Ciência da Computação Teórica 259: 1-61.
• - Schmitt, Lothar M (2004), Teoria de Algoritmos Genéticos II: modelos para operadores genéticos sobre a representação de populações em tensores de cordas e convergência para otimização global para funções de aptidão arbitrárias sob escalonamento, Theoretical Computer Science 310: 181-231.
• - Schwefel, Hans-Paul (1974): Numerische Optimierung von Computer-Modellen (tese de doutorado). Reimpresso por Birkhäuser (1977).
• - Vose, Michael (1999). O Algoritmo Genético Simples: Fundamentos e Teoria. Cambridge, MA: MIT Press. ISBN 978-0262220583.
• -Whitley, Darrell (1994). "Um tutorial de algoritmo genético." Estatística e Computação. 4(2): 65-85. Doi:10.1007/BF00175354.