Metaheuristisch

Im Informatik und Mathematische Optimierung, a metaheuristisch ist eine höhere Ebene Verfahren oder Heuristik Entwickelt, um eine Heuristik zu finden, zu erzeugen oder auszuwählen (teilweise Suchalgorithmus), die eine ausreichend gute Lösung für eine liefern können Optimierungsprobleminsbesondere mit unvollständigen oder unvollständigen Informationen oder begrenzter Berechnungskapazität.[1][2] Metaheuristik Beispiele Eine Untergruppe von Lösungen, die ansonsten zu groß ist, um vollständig aufgezählt oder auf andere Weise untersucht zu werden. Metaheuristiken können relativ wenige Annahmen über das Lösen des Optimierungsproblems ermöglichen und daher für eine Vielzahl von Problemen verwendet werden.[3]

Verglichen mit Optimierungsalgorithmen und iterative Methoden, Metaheuristiken garantieren nicht, dass a Global optimale Lösung kann auf einer Klasse von Problemen gefunden werden.[3] Viele Metaheuristiken implementieren irgendeine Form von Stochastische Optimierung, so dass die gefundene Lösung vom Satz von abhängt zufällige Variablen generiert.[2] Im Kombinatorische Optimierung, durch Suche nach einem großen Satz von realisierbare Lösungen, Metaheuristiken können häufig gute Lösungen mit weniger rechnerischen Anstrengungen finden als Optimierungsalgorithmen, iterative Methoden oder einfache Heuristiken.[3] Daher sind sie nützliche Ansätze für Optimierungsprobleme.[2] Zu diesem Thema wurden mehrere Bücher und Umfragetapiere veröffentlicht.[2][3][4][5][6]

Die meisten Literatur zur Metaheuristik ist experimenteller Natur und beschreibt empirische Ergebnisse auf der Grundlage des auf Computerexperimente mit den Algorithmen. Einige formale theoretische Ergebnisse sind jedoch auch verfügbar, oft auf Konvergenz und die Möglichkeit, das globale Optimum zu finden.[3] Viele metaheuristische Methoden wurden mit Ansprüchen von Neuheiten und praktischer Wirksamkeit veröffentlicht. Während das Feld auch qualitativ hochwertige Forschung umfasst, waren viele der Veröffentlichungen von schlechter Qualität. Fehlern umfassen Unbestimmtheit, mangelnde konzeptionelle Ausarbeitung, schlechte Experimente und Unkenntnis der früheren Literatur.[7]

Eigenschaften

Dies sind Eigenschaften, die die meisten Metaheuristiken charakterisieren:[3]

  • Metaheuristiken sind Strategien, die den Suchprozess leiten.
  • Ziel ist es, den Suchraum effizient zu erkunden, um nahezu optimale Lösungen zu finden.
  • Techniken, die metaheuristische Algorithmen darstellen Einfache lokale Suche Verfahren zu komplexen Lernprozessen.
  • Metaheuristische Algorithmen sind ungefähr und normalerweise nicht deterministisch.
  • Metaheuristiken sind nicht problemspezifisch.

Einstufung

Euler -Diagramm der verschiedenen Klassifikationen der Metaheuristik.[8]

Es gibt eine Vielzahl von Metaheuristiken[2] und eine Reihe von Eigenschaften, in denen sie sie klassifizieren können.[3]

Lokale Suche gegen globale Suche

Ein Ansatz besteht darin, die Art der Suchstrategie zu charakterisieren.[3] Eine Art von Suchstrategie ist eine Verbesserung der einfachen lokalen Suchalgorithmen. Ein bekannter lokaler Suchalgorithmus ist der Berg steigen Methode, mit der lokale Optimum findet. Hill Climbing garantiert jedoch nicht garantiert weltweit optimale Lösungen.

Viele metaheuristische Ideen wurden vorgeschlagen, um die lokale Suchheuristik zu verbessern, um bessere Lösungen zu finden. Solche Metaheuristiken umfassen simuliertes Glühen, Tabu -Suche, Iterierte lokale Suche, Variable Nachbarschaftssuche, und FASSEN.[3] Diese Metaheuristiken können sowohl als lokale suchbasierte oder globale Suchmetaheuristik eingestuft werden.

Andere globale Suchmetaheuristik, die nicht lokal suchbasiert sind, sind in der Regel bevölkerungsbasierte Metaheuristiken. Solche Metaheuristiken umfassen Ameisenkolonieoptimierung, Evolutionsberechnung, Partikelschwarmoptimierung, genetischen Algorithmus, und Fahreroptimierungsalgorithmus[9]

Einzellösung vs. Population

Eine andere Klassifizierungsdimension ist eine einzelne Lösung und bevölkerungsbasierte Suchvorgänge.[3][6] Einzelne Lösungsansätze konzentrieren sich auf die Änderung und Verbesserung einer einzelnen Kandidatenlösung. Einen Lösung Metaheuristiken umfassen simuliertes Glühen, Iterierte lokale Suche, Variable Nachbarschaftssuche, und Geführte lokale Suche.[6] Bevölkerungsbasierte Ansätze bewahren und verbessern mehrere Kandidatenlösungen, wobei häufig Bevölkerungseigenschaften verwendet werden, um die Suche zu leiten. Bevölkerungsbasierte Metaheuristiken umfassen Evolutionsberechnung, genetische Algorythmen, und Partikelschwarmoptimierung.[6] Eine weitere Kategorie von Metaheuristiken ist Schwarmintelligenz Dies ist ein kollektives Verhalten von dezentralen, selbstorganisierten Wirkstoffen in einer Bevölkerung oder einem Schwarm. Ameisenkolonieoptimierung,[10] Partikelschwarmoptimierung,[6] Kaiser Penguin Optimierer[11] und soziale kognitive Optimierung sind Beispiele für diese Kategorie.

Hybridisierung und memetische Algorithmen

Eine hybride metaheuristische Mathematische Programmierung, Einschränkungsprogrammierung, und maschinelles Lernen. Beide Komponenten einer hybriden metaheuristischen Komponenten können gleichzeitig ausgeführt werden und Informationen austauschen, um die Suche zu leiten.

Auf der anderen Seite, Memetische Algorithmen[12] Stellen Sie die Synergie des evolutionären oder eines bevölkerungsbasierten Ansatzes mit separaten individuellen Lern- oder lokalen Verbesserungsverfahren für die Problemsuchung dar. Ein Beispiel für einen memetischen Algorithmus ist die Verwendung eines lokalen Suchalgorithmus anstelle eines grundlegenden Mutationsoperators in evolutionären Algorithmen.

Parallele Metaheuristik

A Parallele metaheuristisch ist einer, das die Techniken von verwendet Parallele Programmierung mehrere metaheuristische Suchanfragen parallel durchführen; Diese können von einfach reichen verteilt Schemata zu gleichzeitigen Suchläufen, die interagieren, um die Gesamtlösung zu verbessern.

Nature-inspirierte und metapherbasierte Metaheuristik

Ein sehr aktives Forschungsbereich ist das Design der von Natur inspirierten Metaheuristik. Viele neuere Metaheuristiken, insbesondere evolutionäre Berechnungsbasis-Algorithmen, sind von natürlichen Systemen inspiriert. Die Natur wirkt als Quelle für Konzepte, Mechanismen und Prinzipien für die Gestaltung künstlicher Computersysteme, um komplexe Rechenprobleme zu lösen. Solche Metaheuristiken umfassen simuliertes Glühen, Evolutionsalgorithmen, Ameisenkolonieoptimierung und Partikelschwarmoptimierung. Eine große Anzahl neuerer Metapher-inspirierter Metaheuristiken hat begonnen Kritik in der Forschungsgemeinschaft anziehen um ihren Mangel an Neuheit hinter einer aufwändigen Metapher zu verbergen.[7]

Anwendungen

Metaheuristiken werden für verwendet Kombinatorische Optimierung in der eine optimale Lösung über a gesucht wird diskret Suchraum. Ein Beispielproblem ist das Problem mit reisenden Verkäufern wo der Suchraum von Kandidatenlösungen schneller wächst als exponentiell Mit zunehmender Größe des Problems, was eine macht erschöpfende Suche für die optimale Lösung unmachtbar. Darüber hinaus mehrdimensionale kombinatorische Probleme, einschließlich der meisten Designprobleme in Ingenieurwesen[13][14][15] wie Formfindung und Verhaltensfindung, leiden unter dem Fluch der Dimensionalität, was sie auch für die erschöpfende Suche unmöglich macht oder analytische Methoden. Metaheuristiken werden auch häufig für Probleme mit Jobshop -Planung und Problemen mit Jobauswahl verwendet. Zu den beliebten Metaheuristiken für kombinatorische Probleme gehören simuliertes Glühen von Kirkpatrick et al.,,[16] genetische Algorythmen von Holland et al.,,[17] Streuersuche[18] und Tabu -Suche[19] von Glover. Literaturübersicht über metaheuristische Optimierung,[20] schlug vor, dass es Fred Glover war, der das Wort Metaheuristik prägte.[21]

Metaheuristische Optimierungsrahmen (MOFS)

Ein MOF kann als "" eine Reihe von Softwaretools definiert werden, die eine korrekte und wiederverwendbare Implementierung einer Reihe von Metaheuristiken und die grundlegenden Mechanismen zur Beschleunigung der Implementierung seiner untergeordneten Partnerheuristik (möglicherweise einschließlich Lösungscodierungen und technikspezifischen Operatoren) liefern. , die erforderlich sind, um eine bestimmte Probleminstanz mithilfe von Techniken zu lösen.[22]

Es gibt viele Tools für Kandidatenoptimierung, die als MOF in unterschiedlichem Merkmal angesehen werden können: Comet, Eva2, Evolvica, Evolutionary :: Algorithmus, Gaplayground, Jaga, Jclec, Jgap, Jmetal, N-Genes, Open Beagle, Opt4j, Paradiseo/EO/EO , Pisa, Uhrmacher, FOM, Hypercube, Hotframe, Templar, EasyLocal, IOPT, OptQuest, Jdeal, Optimierungsalgorithmus Toolkit, Heuristiclab, Mafra, Localizer, Galib, Traum, Discropt, Madma, Magma, Meta, Metaheuristics.jl, uof[22] und Optaplanner.

Contributions

Es gibt viele verschiedene Metaheuristiken und es werden immer neue Varianten vorgeschlagen. Einige der wichtigsten Beiträge auf dem Feld sind:

Siehe auch

Verweise

  1. ^ R. Balamurugan; BIN. Natarajan; K. Premalatha (2015). "Sternmasse Schwarze Lochoptimierung für Biclustering Microarray-Genexpressionsdaten". Angewandte künstliche Intelligenz. 29 (4): 353–381. doi:10.1080/08839514.2015.1016391. S2CID 44624424.
  2. ^ a b c d e Bianchi, Leonora; Marco Dorigo; Luca Maria Gambardella; Walter J. Gutjahr (2009). "Eine Umfrage zu Metaheuristik zur stochastischen kombinatorischen Optimierung" (PDF). Natural Computing. 8 (2): 239–287. doi:10.1007/s11047-008-9098-4. S2CID 9141490.
  3. ^ a b c d e f g h i j Blum, C.; Roli, A. (2003). "Metaheuristik in der kombinatorischen Optimierung: Übersicht und konzeptioneller Vergleich". 35 (3). ACM Computing -Umfragen: 268–308. {{}}: Journal zitieren erfordert |journal= (Hilfe)
  4. ^ Goldberg, D.E. (1989). Genetische Algorithmen bei der Suche, Optimierung und maschinellem Lernen. KLUWER Academic Publishers. ISBN 978-0-201-15767-3.
  5. ^ Glover, F.; Kangenberger, G.A. (2003). Handbuch der Metaheuristik. Vol. 57. Springer, Internationale Serie in Operations Research & Management Science. ISBN 978-1-4020-7263-5.
  6. ^ a b c d e Talbi, E-G. (2009). Metaheuristik: vom Design zur Implementierung. Wiley. ISBN 978-0-470-27858-1.
  7. ^ a b Sörensen, Kenneth (2015). "Metaheuristik - die Metapher entlarvt" (PDF). Internationale Transaktionen in der operativen Forschung. 22: 3–18. Citeseerx 10.1.1.470.3422. doi:10.1111/itor.12001. Archiviert von das Original (PDF) Am 2013-11-02.
  8. ^ Klassifizierung der Metaheuristik
  9. ^ D, Binu (2019). "Ridenn: Ein neuer neuronaler Netzwerk für Fahreroptimierungsalgorithmus für die Fehlerdiagnose in analogen Schaltungen". IEEE -Transaktionen zur Instrumentierung und Messung. 68 (1): 2–26. doi:10.1109/tim.2018.2836058. S2CID 54459927.
  10. ^ a b M. Dorigo, Optimierung, Lernen und natürliche Algorithmen, PhD -These, Polutecnico di Milano, Italie, 1992.
  11. ^ Yoosefdoost, icen; Basiirifard, Milad; Álvarez-García, José (2022-07-29). "Reservoir Betriebsmanagement mit neuen Multi-Objektiven (MOEPO) und Metaheuristischen (EPO) Algorithmen". Wasser. 14 (15): 2329. doi:10.3390/w14152329. ISSN 2073-4441.
  12. ^ a b Moscato, P. (1989). "Über Evolution, Suche, Optimierung, genetische Algorithmen und Kampfkunst: auf memetische Algorithmen". Caltech gleichzeitiger Berechnungsprogramm (Bericht 826).
  13. ^ Tomoiagă B, Chindriş M, Sumper A, Sudria-AndreU A, Villafafila-Robles R. Pareto optimale Rekonfiguration von Leistungsverteilungssystemen unter Verwendung eines genetischen Algorithmus basierend auf NSGA-II. Energien. 2013; 6 (3): 1439–1455.
  14. ^ Ganesan, T.; Elamvaazuthi, i.; Ku Shaari, Ku Zilati; Vasant, P. (2013-03-01). "Swarm Intelligence und Gravitational Suchalgorithmus zur multi-objektiven Optimierung der Synthesegasproduktion". Angewandte Energie. 103: 368–374. doi:10.1016/j.apenergy.2012.09.059.
  15. ^ Ganesan, T.; Elamvaazuthi, i.; Vasant, P. (2011-11-01). Evolutionärer Normal- und Grenzübergangsmethode (ENBI) zur multi-objektiven Optimierung des grünen Sandformsystems. 2011 IEEE International Conference on Control System, Computing and Engineering (ICCSCE). S. 86–91. doi:10.1109/ICCSCE.2011.6190501. ISBN 978-1-4577-1642-3. S2CID 698459.
  16. ^ a b Kirkpatrick, S.; Gelatt Jr., C.D.; Vecchi, M.P. (1983). "Optimierung durch simuliertes Glühen". Wissenschaft. 220 (4598): 671–680. Bibcode:1983Sci ... 220..671k. Citeseerx 10.1.1.123.7607. doi:10.1126/Science.220.4598.671. PMID 17813860. S2CID 205939.
  17. ^ a b Holland, J.H. (1975). Anpassung in natürlichen und künstlichen Systemen. Universität von Michigan Press. ISBN 978-0-262-08213-6.
  18. ^ a b Glover, Fred (1977). "Heuristiken für Ganzzahlprogramme mit Ersatzbeschränkungen". Entscheidungswissenschaften. 8 (1): 156–166. Citeseerx 10.1.1.302.4071. doi:10.1111/j.1540-5915.1977.tb01074.x.
  19. ^ a b Glover, F. (1986). "Zukünftige Pfade für Ganzzahlprogramme und Links zur künstlichen Intelligenz". Computer- und Operationsforschung. 13 (5): 533–549. doi:10.1016/0305-0548 (86) 90048-1.
  20. ^ X. S. Yang, Metaheuristische Optimierung, Scholarpedia, 6 (8): 11472 (2011).
  21. ^ Glover F. (1986). Zukünftige Pfade für Ganzzahlprogramme und Links zu künstlicher Intelligenz, Computer und Operations Research, 13, 533–549 (1986).
  22. ^ a b Moscato, P. (2012). "Metaheuristische Optimierungsrahmen eine Umfrage und Benchmarking". Soft Comput. 16 (3): 527–561. doi:10.1007/s00500-011-0754-8. HDL:11441/24597. S2CID 1497912.
  23. ^ Robbins, H.; Monro, S. (1951). "Eine stochastische Annäherungsmethode" (PDF). Annalen der mathematischen Statistik. 22 (3): 400–407. doi:10.1214/AOMS/1177729586.
  24. ^ BARRICELLI, N.A. (1954). "Esempi numerici di processi di evoluzione". Methodos: 45–68.
  25. ^ Rastrigin, L. A. (1963). "Die Konvergenz der zufälligen Suchmethode in der extremen Kontrolle eines vielen Parametersystems". Automatisierung und Fernbedienung. 24 (10): 1337–1342.
  26. ^ Matyas, J. (1965). "Zufällige Optimierung". Automatisierung und Fernbedienung. 26 (2): 246–253.
  27. ^ Nelder, J.A.; Mead, R. (1965). "Eine Simplex -Methode zur Funktionsminimierung". Computerjournal. 7 (4): 308–313. doi:10.1093/comjnl/7.4.308. S2CID 2208295.
  28. ^ Rechenberg, Ingo (1965). "Kybernetischer Lösungsweg eines experimentellen Problems". Royal Aircraft Establishment, Bibliotheksübersetzung.
  29. ^ Fogel, L.; Owens, A.J.; Walsh, M. J. (1966). Künstliche Intelligenz durch simulierte Evolution. Wiley. ISBN 978-0-471-26516-0.
  30. ^ Hastings, W.K. (1970). "Monte -Carlo -Stichprobenmethoden unter Verwendung von Markov -Ketten und deren Anwendungen". Biometrika. 57 (1): 97–109. Bibcode:1970bimka..57 ... 97H. doi:10.1093/biomet/57.1.97. S2CID 21204149.
  31. ^ Cavicchio, D.J. (1970). "Adaptive Suche mit simulierter Evolution". Technischer Bericht. Universität von Michigan, Abteilung für Computer- und Kommunikationswissenschaften. HDL:2027.42/4042.
  32. ^ Kernighan, B.W.; Lin, S. (1970). "Ein effizientes heuristisches Verfahren zur Aufteilung von Graphen". Glockensystem Technisches Journal. 49 (2): 291–307. doi:10.1002/j.1538-7305.1970.tb01770.x.
  33. ^ Mercer, R.E.; Sampson, J. R. (1978). "Adaptive Suche mit einem reproduktiven Metaplan". Kybernetes. 7 (3): 215–228. doi:10.1108/eb005486.
  34. ^ Smith, S.F. (1980). Ein Lernsystem, das auf genetischen adaptiven Algorithmen basiert (Doktorarbeit). Universität von Pittsburgh.
  35. ^ Moscato, P.; Fontanari, J. F. (1990), "Stochastische versus deterministische Update in simuliertem Annealing", Physikbuchstaben a, 146 (4): 204–208, Bibcode:1990phla..146..204m, doi:10.1016/0375-9601 (90) 90166-l
  36. ^ Dueck, G.; Scheuer, T. (1990), "Schwellenwert akzeptieren: Ein allgemeiner Optimierungsalgorithmus, der dem simulierten Tempern überlegen erscheint", Journal of Computational Physics, 90 (1): 161–175, Bibcode:1990jcoph..90..161d, doi:10.1016/0021-9991 (90) 90201-B, ISSN 0021-9991
  37. ^ Wolpert, D.H.; MacReady, W. G. (1995). "Keine kostenlosen Mittagessen für die Suche". Technischer Bericht SFI-TR-95-02-010. Santa Fe Institute. S2CID 12890367.
  38. ^ Igl, Christian, Toussaint, Marc (Juni 2003). "Über Kurse von Funktionen, für die keine kostenlosen Mittagessenergebnisse erfolgen". Informationsverarbeitungsbriefe. 86 (6): 317–321. Arxiv:CS/0108011. doi:10.1016/s0020-0190 (03) 00222-9. ISSN 0020-0190. S2CID 147624.{{}}: Cs1 montiert: Mehrfachnamen: Autorenliste (Link)
  39. ^ Auger, Anne, Teytaud, Olivier (2010). "Kontinuierliche Mittagessen sind kostenlos und das Design optimaler Optimierungsalgorithmen". Algorithmus. 57 (1): 121–146. Citeseerx 10.1.1.186.6007. doi:10.1007/s00453-008-9244-5. ISSN 0178-4617. S2CID 1989533.{{}}: Cs1 montiert: Mehrfachnamen: Autorenliste (Link)
  40. ^ Stefan Droste; Thomas Jansen; Ingo Wegener (2002). "Optimierung mit randomisierten Suchheuristik - Der (a) NFL -Theorem, realistische Szenarien und schwierige Funktionen". Theoretische Informatik. 287 (1): 131–144. Citeseerx 10.1.1.35.5850. doi:10.1016/s0304-3975 (02) 00094-4.

Weitere Lektüre

  • Sörensen, Kenneth; Sevaux, Marc; Glover, Fred (2017-01-16). "Eine Geschichte der Metaheuristik" (PDF). In Martí, Rafael; Panos, Pardalos; Resende, Mauricio (Hrsg.). Handbuch der Heuristik. Springer. ISBN 978-3-319-07123-7.

Externe Links