Kontrolltheorie
Kontrolltheorie setzt sich auseinander mit Kontrolle von Dynamische Systeme In technischen Prozessen und Maschinen. Das Ziel ist es, ein Modell oder einen Algorithmus zu entwickeln, das die Anwendung von Systemeingaben regiert, um das System in einen gewünschten Zustand zu treiben, und gleichzeitig minimiert Verzögerung, Überschwingen, oder stationärer Fehler und sicherzustellen, dass ein Maß an Kontrolle Stabilität; Oft mit dem Ziel, einen gewissen Grad von zu erreichen Optimalität.
Dazu, a Regler Mit dem erforderlichen Korrekturverhalten ist erforderlich. Dieser Controller überwacht die kontrollierten Prozessvariable (PV) und vergleicht es mit der Referenz oder Sollwert (Sp). Der Unterschied zwischen tatsächlichem und gewünschtem Wert der Prozessvariablen, die als die genannt Error Signal- oder SP-PV-Fehler wird als Feedback angewendet, um eine Steueraktion zu generieren, um die kontrollierte Prozessvariable auf denselben Wert wie der Sollwert zu bringen. Andere Aspekte, die ebenfalls untersucht werden, sind Kontrollierbarkeit und Beobachtbarkeit. Dies ist die Grundlage für die fortgeschrittene Art der Automatisierung, die Fertigung, Flugzeuge, Kommunikation und andere Branchen revolutionierte. Das ist Rückmeldungskontrolle, bei der es darum geht, Messungen mit a zu ergreifen Sensor und berechnete Anpassungen vornehmen, um die gemessene Variable mithilfe eines "endgültigen Steuerelements" wie a Regelventil.[1]
Umfangreiche Verwendung besteht normalerweise aus einem diagrammatischen Stil, der als die bekannt ist Blockdiagramm. Darin die ÜbertragungsfunktionAuch als Systemfunktion oder Netzwerkfunktion bezeichnet, ist ein mathematisches Modell der Beziehung zwischen Eingabe und Ausgabe basierend auf dem Differentialgleichung Beschreibung des Systems.
Die Kontrolltheorie stammt aus dem 19. Jahrhundert, als die theoretische Grundlage für den Betrieb der Gouverneure erstmals von beschrieben wurde James Clerk Maxwell.[2] Die Kontrolltheorie wurde weiter vorangebracht von Edward Routh 1874, Charles Sturm und im Jahr 1895, Adolf Hurwitz, der alle zur Festlegung von Kontrollstabilitätskriterien beigetragen haben; und ab 1922 die Entwicklung von PID -Kontrolle Theorie von Nicolas Minorsky.[3] Obwohl eine wichtige Anwendung von mathematisch Kontrolltheorie ist in Steuerungssystemtechnik, was sich mit dem Design von befasst Prozesssteuerung Systeme für die Industrie, andere Anwendungen liegen weit darüber hinaus. Da die allgemeine Theorie der Feedback -Systeme die Kontrolltheorie nützlich ist, wo immer Feedback eintritt, hat die Kontrolltheorie auch Anwendungen in Biowissenschaften, Computertechnik, Soziologie und Unternehmensforschung.[4]
Geschichte

Obwohl die Kontrollsysteme verschiedener Typen in die Antike ausgehen, begann eine formalere Analyse des Feldes mit einer Dynamikanalyse der Zentrifugalgouverneur, durchgeführt vom Physiker James Clerk Maxwell 1868 berechtigt Auf Gouverneure.[5] Ein zentrifugaler Gouverneur wurde bereits verwendet, um die Geschwindigkeit der Windmühlen zu regulieren.[6] Maxwell beschrieb und analysierte das Phänomen von Selbstausfälle, in denen Verzögerungen im System zu Überkompensation und instabilem Verhalten führen können. Dies führte zu einem gewissen Interesse an dem Thema, bei dem Maxwells Klassenkameradin, Edward John Routh, abstrahierte Maxwells Ergebnisse für die allgemeine Klasse der linearen Systeme.[7] Unabhängig, Adolf Hurwitz Analysierte die Systemstabilität unter Verwendung von Differentialgleichungen im Jahr 1877, was zu dem führt, was heute als die genannt wird Routh -Hurwitz -Theorem.[8][9]
Eine bemerkenswerte Anwendung der dynamischen Kontrolle fand im Bereich des Besatzungsfluges statt. Das Wright Brothers machte ihre ersten erfolgreichen Testflüge am 17. Dezember 1903 und zeichnete sich durch ihre Fähigkeit aus, ihre Flüge für erhebliche Zeiträume zu kontrollieren (mehr als die Fähigkeit, einen Auftrieb aus einem Flugzeug zu erzeugen, der bekannt war). Für Flüge, die länger als einige Sekunden dauerten, war eine kontinuierliche, zuverlässige Kontrolle des Flugzeugs erforderlich.
Durch Zweiter WeltkriegDie Kontrolltheorie wurde zu einem wichtigen Forschungsbereich. Irmgard Flügge-lotz entwickelte die Theorie diskontinuierlicher automatischer Steuerungssysteme und angewendet die Bang-Bang-Prinzip zur Entwicklung von Automatische Flugsteuerungsausrüstung für Flugzeuge.[10][11] Andere Anwendungsbereiche für diskontinuierliche Kontrollen enthalten Feuer-Kontrollsysteme, Leitsysteme und Elektronik.
Manchmal werden mechanische Methoden verwendet, um die Stabilität von Systemen zu verbessern. Zum Beispiel, Schiffsstabilisatoren Sind Flossen unter der Wasserlinie montiert und lateral entstehen. In zeitgenössischen Gefäßen können sie gyroskopisch kontrollierte aktive Flossen sein, die die Fähigkeit haben, ihren Angriffswinkel zu ändern, um die durch Wind oder Wellen auf dem Schiff wirken zu wirken.
Das Weltraumrennen Abhängig von der genauen Kontrolle der Raumfahrzeuge, und die Kontrolltheorie hat auch in Bereichen wie Wirtschaft und künstliche Intelligenz zunehmend verwendet. Hier könnte man sagen, dass das Ziel ist, eine zu finden internes Modell das gehorcht dem Guter Regler -Theorem. Je genauer ein Handelsmodell (Aktien- oder Rohstoffe) in der Wirtschaft die Aktionen des Marktes darstellt, desto leichter kann ein Handelsmodell des Handels (Aktien- oder Rohstoffe) die Handlungen des Marktes darstellen, desto leichter kann es den Markt kontrollieren (und "nützliche Arbeit" (Gewinne) aus ihm extrahieren). In AI könnte ein Beispiel ein Chatbot sein, der den Diskurszustand des Menschen modelliert: Je genauer er den menschlichen Zustand modellieren kann (z. B. in einer Telefon-Support-Hotline), desto besser kann er den Menschen manipulieren (z. B. in die Durchführung der Korrekturmaßnahmen um das Problem zu beheben, das den Anruf an die Hilfslinie verursachte). Diese letzten beiden Beispiele nehmen die enge historische Interpretation der Kontrolltheorie als eine Reihe von Differentialgleichungen an, die die kinetische Bewegung modellieren und regulieren, und erweitert sie zu einer enormen Verallgemeinerung von a Regler mit a interagieren Pflanze.
Open-Loop- und Closed-Loop-Steuerung (Feedback)


Grundsätzlich gibt es zwei Arten von Kontrollschleifen: Open Loop Control und Closed Loop (Feedback).
Bei offener Schleifensteuerung ist die Steueraktion des Controllers unabhängig von der "Prozessausgabe" (oder "kontrollierten Prozessvariablen" - PV). Ein gutes Beispiel hierfür ist ein Zentralheizkessel, der nur von einem Timer gesteuert wird, sodass Wärme unabhängig von der Temperatur des Gebäudes für eine konstante Zeit aufgetragen wird. Die Steueraktion ist die zeitgesteuerte Ein-/Aus -Ein-/Aus -des Kessels, die Prozessvariable ist die Gebäudetemperatur, aber auch nicht verknüpft.
Bei der Steuerung der geschlossenen Schleife hängt die Steueraktion des Controllers von der Feedback aus dem Prozess in Form des Wertes der Prozessvariablen (PV) ab. Bei der Kesselanalogie würde eine geschlossene Schleife einen Thermostat enthalten, um die Gebäudetemperatur (PV) mit dem auf dem Thermostat festgelegten Temperatur (dem Sollwert - SP) zu vergleichen. Dies erzeugt einen Steuerungsausgang, um das Gebäude bei der gewünschten Temperatur durch Ein- und Ausschalten des Kessels aufrechtzuerhalten. Ein geschlossener Schleifencontroller verfügt daher über eine Rückkopplungsschleife, die sicherstellt, dass der Controller eine Steueraktion ausübt, um die Prozessvariable so zu manipulieren, dass sie dem "Referenzeingang" oder "Sollwert" übereinstimmen. Aus diesem Grund werden auch Feedback -Controller als Feedback -Controller bezeichnet.[12]
Die Definition eines Closed -Loop -Steuerungssystems gemäß der britischen Standardeinrichtung ist "ein Steuerungssystem mit Überwachungsrückkopplung, das aus diesem Ergebnis gebildete Abweichungssignal, das zur Steuerung der Wirkung eines endgültigen Steuerelements so verwendet wird neigen dazu, die Abweichung auf Null zu reduzieren. "[13]
Ebenfalls; "EIN Feedback -Steuerungssystem ist ein System, das dazu neigt, eine vorgeschriebene Beziehung einer Systemvariablen zu einer anderen aufrechtzuerhalten, indem sie Funktionen dieser Variablen vergleichen und den Unterschied als Kontrollmittel verwenden. "[14]
Andere Beispiele
Ein Beispiel für ein Steuerungssystem ist ein Auto Tempomat, was ein Gerät ist, das die Fahrzeuggeschwindigkeit mit einer Konstante aufrechterhält gewünscht oder Hinweis Geschwindigkeit, die vom Fahrer bereitgestellt wird. Das Regler ist die Geschwindigkeitskontrolle, die Pflanze ist das Auto und das System ist das Auto und die Geschwindigkeitsregelung. Die Systemausgabe ist die Geschwindigkeit des Autos und die Steuerung selbst ist der Motor Gaspedal Position, die bestimmt, wie viel Strom der Motor liefert.
Eine primitive Methode zur Implementierung der Geschwindigkeitsregelung besteht einfach darin, die Drosselklappe zu sperren, wenn der Fahrer die Geschwindigkeitsregelung einsetzt. Wenn die Geschwindigkeitsregelung jedoch auf einer Strecke der nicht flachen Straße beteiligt ist, fährt das Auto beim Abfahren langsamer und schneller. Diese Art von Controller wird als eine bezeichnet Open-Loop-Controller weil es kein ... gibt Rückmeldung; Es wird keine Messung des Systemausgangs (die Geschwindigkeit des Autos) verwendet, um die Steuerung (die Drosselklappenposition) zu verändern. Infolgedessen kann der Controller nicht wie eine Änderung der Straße Änderungen ausgleichen, die auf das Auto wirken.
In einem Steuerungssystem mit geschlossenem Schleifen, Daten eines Sensors, der die Geschwindigkeit des Autos überwacht (die Systemausgabe), tritt in einen Controller ein, der kontinuierlich die Menge vergleicht, die die Geschwindigkeit mit der Referenzmenge darstellt, die die gewünschte Geschwindigkeit darstellt. Der Differenz, der als Fehler bezeichnet wird, bestimmt die Gasposition (die Kontrolle). Das Ergebnis soll der Geschwindigkeit des Autos mit der Referenzgeschwindigkeit übereinstimmen (beibehalten der gewünschten Systemausgabe). Wenn das Auto nun bergauf fährt, bestimmt der Unterschied zwischen der Eingabe (der erfassten Geschwindigkeit) und der Referenz kontinuierlich die Gasposition. Mit zunehmender Geschwindigkeit, die unter der Referenz fällt, steigt die Differenz, der Gas öffnet und die Motorleistung erhöht sich und beschleunigt das Fahrzeug. Auf diese Weise wirkt der Controller den Veränderungen des Autos dynamisch entgegen. Die zentrale Idee dieser Kontrollsysteme ist die RückkopplungsschleifeDer Controller beeinflusst die Systemausgabe, die wiederum gemessen und an den Controller zurückgegeben wird.
Klassische Kontrolltheorie
Die Einschränkungen des Open-Loop-Controller, Kontrolltheorie führt ein Rückmeldung. EIN Controller mit geschlossener Schleife Verwendet Feedback, um zu kontrollieren Zustände oder Ausgänge von a Dynamisches System. Sein Name kommt vom Informationspfad im System: Prozesseingaben (z. B.,, Stromspannung angewendet auf an Elektromotor) Wirkung auf die Prozessausgänge (z. B. Geschwindigkeit oder Drehmoment des Motors), der mit gemessen wird Sensoren und vom Controller verarbeitet; Das Ergebnis (das Steuersignal) wird als Eingabe in den Prozess "zurückgefügt" und schließt die Schleife.
Controller mit geschlossenen Schleife haben die folgenden Vorteile gegenüber Open-Loop-Controller:
- Störungsablehnung (wie Hügel im obigen Geschwindigkeitsregelungsbeispiel)
- garantierte Leistung sogar mit Modell Unsicherheiten, wenn die Modellstruktur nicht perfekt mit dem realen Prozess übereinstimmt und die Modellparameter nicht genau sind
- instabil Prozesse können stabilisiert werden
- Reduzierte Empfindlichkeit gegenüber Parametervariationen
- Verbesserte Referenzverfolgungsleistung
In einigen Systemen werden gleichzeitig geschlossener Schleifen und Open-Loop-Kontrolle verwendet. In solchen Systemen wird die Open-Loop-Steuerung bezeichnet Futtermittel und dient dazu, die Referenzverfolgungsleistung weiter zu verbessern.
Eine gewöhnliche Architektur mit geschlossener Schleife ist die PID -Controller.
Übertragungsfunktion mit geschlossener Schleife
Die Ausgabe des Systems y(t) wird durch eine Sensormessung zurückgeführt F zu einem Vergleich mit dem Referenzwert r(t). Der Controller C Dann nimmt der Fehler e (Differenz) zwischen der Referenz und der Ausgabe, um die Eingänge zu ändern u zu dem System unter Kontrolle P. Dies ist in der Abbildung dargestellt. Diese Art von Controller ist ein Controller oder Feedback-Controller mit geschlossenem Loop.
Dies wird als Eingangsausgang mit einem Eingang (Siso) Kontrollsystem; Mimo (d. H. Multi-Input-Multi-Output-Systeme mit mehr als einem Eingang/Ausgang sind häufig. In solchen Fällen werden Variablen durch dargestellt Vektoren statt einfach Skalar Werte. Für einige Verteilte Parametersysteme Die Vektoren können unendlich sein.dimensional (Typisch funktioniert typisch).

Wenn wir den Controller annehmen C, die Pflanze Pund der Sensor F sind linear und Zeitinvariant (d. h. Elemente ihrer Übertragungsfunktion C(s), P(s), und F(s) nicht von der Zeit abhängig), die obigen Systeme können mit dem analysiert werden Laplace-Transformation auf den Variablen. Dies gibt die folgenden Beziehungen:
Lösung für Y(s) bezüglich R(s) gibt
Der Ausdruck wird als die bezeichnet Übertragungsfunktion mit geschlossener Schleife vom System. Der Zähler ist der Vorwärtsverstärkung (Open-Loop) r zu yUnd der Nenner ist ein Plus der Gewinn, um die Rückkopplungsschleife, den sogenannten Schleifengewinn zu durchlaufen. Wenn , d.h. es hat eine große Norm mit jedem Wert von s, und wenn , dann Y(s) ist ungefähr gleich R(s) und die Ausgabe verfolgt die Referenzeingabe genau.
PID -Feedback -Kontrolle

Ein proportional -integral -derivativer Controller (PID -Controller) ist a Kontrollschleife Rückkopplungsmechanismus Steuerungstechnik, die in Steuerungssystemen weit verbreitet ist.
Ein PID -Controller berechnet kontinuierlich eine Fehlerwert e(t) als Unterschied zwischen einem gewünschten Sollwert und eine gemessene Prozessvariable und wendet eine Korrektur an, die auf basiert proportional, Integral-, und Derivat Bedingungen. PID ist ein Initialismus für Proportional-Integral-DerivatBezogen auf die drei Begriffe, die mit dem Fehlersignal arbeiten, um ein Steuersignal zu erzeugen.
Das theoretische Verständnis und die Anwendung stammen aus den 1920er Jahren und werden in nahezu allen analogen Steuerungssystemen implementiert. Ursprünglich in mechanischen Controllern und anschließend diskrete Elektronik und später in industriellen Prozesscomputern. Der PID-Controller ist wahrscheinlich das am häufigsten verwendete Feedback-Steuerungsdesign.
Wenn u(t) ist das Steuersignal an das System gesendet, y(t) ist der gemessene Ausgang und r(t) ist die gewünschte Ausgabe und e(t) = r(t) - y(t) ist der Tracking -Fehler, ein PID -Controller hat die allgemeine Form
Die gewünschte Dynamik mit geschlossenen Schleifen wird durch Anpassen der drei Parameter erhalten KP, KI und KDoft iterativ durch "Tuning" und ohne spezifische Kenntnis eines Pflanzenmodells. Stabilität kann häufig nur mit dem proportionalen Term sichergestellt werden. Der integrale Term ermöglicht die Ablehnung einer Stufenstörung (häufig eine auffällige Spezifikation in Prozesssteuerung). Der abgeleitete Begriff wird verwendet, um die Dämpfung oder Gestaltung der Antwort bereitzustellen. PID-Controller sind die am besten etablierte Klasse von Kontrollsystemen: Sie können jedoch nicht in mehreren komplizierteren Fällen verwendet werden, insbesondere wenn Mimo Systeme werden berücksichtigt.
Bewirbt sich Laplace -Transformation Ergebnisse in der transformierten PID -Controller -Gleichung
Mit der PID -Controller -Übertragungsfunktion
Als Beispiel für das Einstellen eines PID-Controllers im System mit geschlossenem Kreislauf H(s), betrachten eine Anlage der 1. Ordnung von
wo A und TP sind einige Konstanten. Die Anlagenleistung wird durch die zurückgegeben
wo TF ist auch eine Konstante. Nun, wenn wir setzen , KD = KtD, und Wir können die PID -Controller -Übertragungsfunktion in Serienform als ausdrücken
Verstopfung P(s), F(s), und C(s) in die Übertragungsfunktion mit geschlossenem Loop H(s)Wir finden das, indem wir einstellen
H(s) = 1. In diesem Beispiel folgt die Systemausgabe genau der Referenzeingabe genau.
In der Praxis ist jedoch ein reines Unterscheidungsmerkmal weder physisch realisierbar noch wünschenswert[15] Aufgrund der Verstärkung von Rauschen und Resonanzmodi im System. Daher a Phasenkompensator Typen Ansatz oder ein Unterscheidungsmerkmal mit Tiefpass-Roll-Off werden stattdessen verwendet.
Lineare und nichtlineare Kontrollestheorie
Das Feld der Kontrolltheorie kann in zwei Zweige unterteilt werden:
- Lineare Kontrolltheorie - Dies gilt für Systeme aus Geräten, die dem gehorchen Prinzip der SuperpositionDies bedeutet ungefähr, dass der Ausgang proportional zum Eingang ist. Sie werden von regiert von Lineare Differentialgleichungen. Eine Hauptunterklasse ist Systeme, die zusätzlich Parameter haben, die sich nicht mit der Zeit ändern, genannt lineare Zeitinvariante (LTI) Systeme. Diese Systeme sind für leistungsfähig zugänglich Frequenzbereich mathematische Techniken der großen Allgemeinheit, wie die Laplace-Transformation, Fourier-Transformation, Z Transformation, Bode -Diagramm, Wurzelort, und Nyquist -Stabilitätskriterium. Diese führen zu einer Beschreibung des Systems, die Begriffe wie unter Verwendung Bandbreite, Frequenzgang, Eigenwerte, gewinnen, Resonanzfrequenzen, Nullen und Stangen, die Lösungen für die Systemreaktions- und Designtechniken für die meisten interessierenden Systeme bieten.
- Nichtlineare Kontrolltheorie -Dies deckt eine breitere Klasse von Systemen ab, die dem Überlagerungsprinzip nicht befolgen, und gilt für mehr reale Systeme, da alle realen Steuerungssysteme nichtlinear sind. Diese Systeme werden häufig von geregelt Nichtlineare Differentialgleichungen. Die wenigen mathematischen Techniken, die für sie entwickelt wurden, sind schwieriger und viel weniger allgemein und gilt häufig nur für enge Kategorien von Systemen. Diese beinhalten Grenzzyklus Theorie, Poincaré -Karten, Lyapunov Stabilitätstheorem, und Funktionen beschreiben. Nichtlineare Systeme werden häufig mit Verwendung analysiert Numerische Methoden auf Computern zum Beispiel von simulieren ihre Operation mit a Simulationssprache. Wenn nur Lösungen in der Nähe eines stabilen Punktes von Interesse sind, können es häufig nichtlineare Systeme sein linearisiert indem sie sie durch ein lineares System verwenden Störungstheorieund lineare Techniken können verwendet werden.[16]
Analysetechniken - Frequenzdomäne und Zeitdomäne
Mathematische Techniken zur Analyse und Gestaltung von Steuerungssystemen fallen in zwei verschiedene Kategorien:
- Frequenzbereich - In diesem Typ die Werte der Werte der Zustandsvariablen, die mathematische Variablen Die Darstellung der Eingabe, Ausgabe und Rückkopplung des Systems werden als Funktionen von dargestellt Frequenz. Das Eingangssignal und das System des Systems Übertragungsfunktion werden von Zeitfunktionen in Funktionen der Frequenz durch a konvertiert verwandeln so wie die Fourier-Transformation, Laplace-Transformation, oder Z Transformation. Der Vorteil dieser Technik besteht darin, dass sie zu einer Vereinfachung der Mathematik führt. das Differentialgleichung Das repräsentiert das System wird durch ersetzt durch algebraische Gleichungen in der Frequenzdomäne, die viel einfacher zu lösen ist. Frequenzdomänentechniken können jedoch nur mit linearen Systemen verwendet werden, wie oben erwähnt.
- Repräsentation der Zeitdomänenzustandsraum - In diesem Typ die Werte der Werte der Zustandsvariablen werden als Funktionen der Zeit dargestellt. Mit diesem Modell wird das analysierte System durch einen oder mehrere dargestellt Differentialgleichung. Da die Frequenzdomänentechniken beschränkt sind auf linear Systeme, Zeitdomäne wird häufig zur Analyse realer nichtlinearer Systeme verwendet. Obwohl diese schwieriger zu lösen sind, sind moderne Computersimulationstechniken wie Simulationssprachen haben ihre Analyseroutine gemacht.
Im Gegensatz zur Frequenzdomänenanalyse der klassischen Kontrolltheorie nutzt die moderne Kontrolltheorie die Zeitdomäne Zustandsraum Darstellung, ein mathematisches Modell eines physischen Systems als Satz von Eingabe-, Ausgangs- und Zustandsvariablen, die durch Differentialgleichungen erster Ordnung zusammenhängen. Um die Anzahl der Eingänge, Ausgänge und Zustände abstrahieren, werden die Variablen als Vektoren ausgedrückt und die Differential- und algebraischen Gleichungen werden in Matrixform geschrieben (letztere sind nur möglich, wenn das dynamische System linear ist). Die Zustandsraumdarstellung (auch als "Zeitdomänenansatz" bezeichnet) bietet eine bequeme und kompakte Möglichkeit, Systeme mit mehreren Eingaben und Ausgängen zu modellieren und zu analysieren. Mit Eingängen und Ausgängen müssten wir sonst Laplace -Transformationen aufschreiben, um alle Informationen über ein System zu codieren. Im Gegensatz zum Frequenzdomänenansatz ist die Verwendung der Zustandsraumdarstellung nicht auf Systeme mit linearen Komponenten und Null-Anfangsbedingungen beschränkt. "State Space" bezieht sich auf den Raum, dessen Äxte die Zustandsvariablen sind. Der Zustand des Systems kann als Punkt innerhalb dieses Raums dargestellt werden.[17][18]
System Schnittstellen - SISO & MIMO
Steuerungssysteme können je nach Anzahl der Eingänge und Ausgänge in verschiedene Kategorien unterteilt werden.
- Single-Input-Single-Output (SISO) - Dies ist der einfachste und häufigste Typ, bei dem ein Ausgang durch ein Steuersignal gesteuert wird. Beispiele sind das obige Tempomat -Beispiel oder eine Audiosystem, in dem der Steuereingang das Eingangs -Audiosignal ist und der Ausgang die Schallwellen des Lautsprechers sind.
- MIMO mit mehreren Eingängen mehrerer Eingänge (MIMO)-Diese finden sich in komplizierteren Systemen. Zum Beispiel moderne große Teleskope so wie die Keck und MMT haben Spiegel aus vielen getrennten Segmenten, die jeweils von einem gesteuert werden Aktuator. Die Form des gesamten Spiegels wird ständig von einem MIMO eingestellt aktive Optik Steuerungssystem unter Verwendung von Eingaben mehrerer Sensoren in der Fokusebene, um Änderungen der Spiegelform aufgrund der thermischen Ausdehnung, Kontraktion, Spannungen bei der Drehung und Verzerrung des Wellenfront aufgrund von Turbulenzen in der Atmosphäre. Komplizierte Systeme wie z. Kernreaktoren und menschlich Zellen werden von einem Computer als große MIMO -Steuerungssysteme simuliert.
Themen in der Kontrolltheorie
Stabilität
Das Stabilität eines General Dynamisches System ohne Eingabe kann mit beschrieben werden mit Lyapunov Stabilität Kriterien.
- A lineares System wird genannt BIBO-Stabil Wenn seine Ausgabe bleibt begrenzt Für jede begrenzte Eingabe.
- Stabilität für Nichtlineare Systeme Das nimmt eine Eingabe an Stabilität der Input-to-State (ISS), das die Lyapunov -Stabilität und einen Begriff ähnlich der Bibo -Stabilität kombiniert.
Der Einfachheit halber konzentrieren sich die folgenden Beschreibungen auf kontinuierliche und diskrete Zeit Lineare Systeme.
Mathematisch bedeutet dies, dass ein kausales lineares System alle stabil ist Stangen von seinem Übertragungsfunktion Muss negativ-reale Werte haben, d. H. Der tatsächliche Teil jedes Pols muss weniger als Null sein. Praktisch gesehen erfordert Stabilität, dass sich die Komplexpolen der Übertragungsfunktion befinden
- in der offenen linken Hälfte der Komplexe Ebene Für kontinuierliche Zeit, wenn die Laplace-Transformation wird verwendet, um die Übertragungsfunktion zu erhalten.
- im Inneren Einheitskreis Für diskrete Zeit, wenn die Z-Transformation wird genutzt.
Der Unterschied zwischen den beiden Fällen ist einfach auf die traditionelle Methode zur Aufteilung der kontinuierlichen Zeit im Vergleich zu diskreten Zeitübertragungsfunktionen zurückzuführen. Die kontinuierliche Laplace -Transformation ist in Kartesischen Koordinaten bei dem die Die Achse ist die reale Achse und die diskrete Z-Transformation ist in Kreiskoordinaten bei dem die Achse ist die reale Achse.
Wenn die entsprechenden Bedingungen erfüllt sind, soll ein System sein asymptotisch stabil; Die Variablen eines asymptotisch stabilen Kontrollsystems nehmen immer von ihrem Anfangswert ab und zeigen keine dauerhaften Schwingungen. Permanente Schwingungen treten auf, wenn ein Pol einen realen Teil genau gleich Null (im kontinuierlichen Zeitfall) oder einem Modul gleich einem (im diskreten Zeitfall) entspricht. Wenn eine einfach stabile Systemreaktion im Laufe der Zeit weder zerfällt noch wächst und keine Schwingungen hat, ist es geringfügig stabil; In diesem Fall hat die Systemübertragungsfunktion nicht wiederholte Pole im komplexen ebenen Ursprung (d. H. Ihre reale und komplexe Komponente ist im kontinuierlichen Zeitfall Null). Oszillationen sind vorhanden, wenn Pole mit realem Teil gleich Null einen imaginären Teil haben, der nicht gleich Null ist.
Wenn ein fragliches System eine hat impulsive Reaktion von
dann die Z-Transformation (siehe Dieses Beispiel), wird gegeben durch
das hat eine Stange in (Null imaginärer Teil). Dieses System ist BIBO (asymptotisch) stabil, da der Pol ist Innerhalb der Einheitskreis.
Wenn die Impulsantwort jedoch war
Dann ist die Z-Transformation
das hat eine Stange bei und ist nicht bibo stabil, da der Pol einen Modul streng größer als eins hat.
Für die Analyse der Pole eines Systems bestehen zahlreiche Werkzeuge. Dazu gehören grafische Systeme wie die Wurzelort, Bode -Diagramme oder der Nyquist -Diagramme.
Mechanische Änderungen können Geräte (und Steuerungssysteme) stabiler machen. Seeleute fügen Ballast hinzu, um die Stabilität von Schiffen zu verbessern. Kreuzfahrtschiffe nutzen Antirollflossen Das erstreckt sich quer von der Seite des Schiffes für vielleicht 10 m (10 m) und wird kontinuierlich um ihre Achsen gedreht, um Kräfte zu entwickeln, die sich der Rolle widersetzen.
Kontrollierbarkeit und Beobachtbarkeit
Kontrollierbarkeit und Beobachtbarkeit sind Hauptprobleme bei der Analyse eines Systems, bevor die beste Kontrollstrategie für die Anwendung entscheidet, oder ob es überhaupt möglich ist, das System zu kontrollieren oder zu stabilisieren. Die Kontrollierbarkeit hängt mit der Möglichkeit zusammen, das System durch Verwendung eines geeigneten Steuersignals in einen bestimmten Zustand zu zwingen. Wenn ein Zustand nicht kontrollierbar ist, kann kein Signal jemals den Zustand steuern. Wenn ein Staat nicht kontrollierbar ist, aber seine Dynamik stabil ist, wird der Staat bezeichnet stabilisierbar. Die Beobachtbarkeit hängt stattdessen mit der Möglichkeit von Beobachtungdurch Ausgangsmessungen der Zustand eines Systems. Wenn ein Zustand nicht beobachtet werden kann, kann der Controller niemals das Verhalten eines nicht beobachtbaren Zustands bestimmen und kann ihn daher nicht verwenden, um das System zu stabilisieren. Ähnlich wie bei der obigen Stabilisierbarkeitsbedingung kann jedoch nicht beobachtet werden, dass er noch nachweisbar ist.
Aus geometrischer Sicht muss jeder "schlechte" Zustand dieser Variablen kontrollierbar und beobachtbar sein, um ein gutes Verhalten im geschlossenen System zu gewährleisten. Das heißt, wenn einer der Eigenwerte des Systems ist nicht sowohl kontrollierbar als auch beobachtbar, dieser Teil der Dynamik bleibt im Closed-Loop-System unberührt. Wenn ein solcher Eigenwert nicht stabil ist, ist die Dynamik dieses Eigenwerts im Closed-Loop-System vorhanden, das daher instabil ist. Nicht beobachtbare Pole sind nicht in der Realisierung der Transferfunktion einer Zustandsraumdarstellung vorhanden, weshalb letzteres in der dynamischen Systemanalyse manchmal bevorzugt wird.
Zu den Lösungen für Probleme eines unkontrollierbaren oder nicht beobachtbaren Systems gehört das Hinzufügen von Aktuatoren und Sensoren.
Kontrollspezifikation
In den letzten Jahren wurden verschiedene Kontrollstrategien entwickelt. Diese variieren von extrem allgemeinen (PID -Controller) bis hin zu anderen, die sich den ganz bestimmten Systemklassen (insbesondere dem Klassen von Systemen befassen Robotik oder Flugzeuggeschwindigkeitsregelung).
Ein Kontrollproblem kann mehrere Spezifikationen haben. Stabilität ist natürlich immer vorhanden. Der Controller muss sicherstellen, dass das System mit geschlossenem Kreis stabil ist, unabhängig von der Stabilität der Open-Loop-Stabilität. Eine schlechte Wahl des Controllers kann sogar die Stabilität des Open-Loop-Systems verschlimmern, das normalerweise vermieden werden muss. Manchmal wäre es wünschenswert, eine besondere Dynamik in der geschlossenen Schleife zu erhalten: d. H. Dass die Pole haben , wo ist ein fester Wert streng größer als Null, anstatt das einfach zu fragen .
Eine weitere typische Spezifikation ist die Ablehnung einer Stufenstörung; einschließlich an Integrator In der Open-Loop-Kette (d. H. direkt vor dem System unter Kontrolle) wird dies leicht erreicht. Andere Klassen von Störungen benötigen verschiedene Arten von Subsystemen, die einbezogen werden können.
Andere "klassische" Kontrolltheoriespezifikationen berücksichtigen die Zeitantwort des Closed-Loop-Systems. Dazu gehören die Anstiegszeit (Die Zeit, die das Steuerungssystem benötigt, um den gewünschten Wert nach einer Störung zu erreichen), Peak Überschwingen (Der höchste Wert, der durch die Antwort erreicht wird, bevor er den gewünschten Wert erreicht hat) und andere (andereAbschlusszeit, Quarter-Decay). Frequenzdomänenspezifikationen beziehen sich normalerweise mit Robustheit (siehe danach).
Moderne Leistungsbewertungen verwenden eine gewisse Variation des integrierten Tracking -Fehlers (IAE, ISA, CQI).
Modellidentifikation und Robustheit
Ein Steuerungssystem muss immer eine Robustheit haben. EIN robuster Controller ist so, dass sich seine Eigenschaften nicht viel ändern, wenn sie auf ein System angewendet werden, das sich leicht von der mathematischen, die für seine Synthese verwendet wird. Diese Anforderung ist wichtig, da sich kein wirkliches physikalisches System wirklich wie die Reihe von Differentialgleichungen verhält, die es mathematisch darstellen. Typischerweise wird ein einfacheres mathematisches Modell ausgewählt, um Berechnungen zu vereinfachen. Andernfalls kann die wahre Systemdynamik so kompliziert sein, dass ein vollständiges Modell nicht möglich ist.
- Systemidentifikation
Der Prozess der Bestimmung der Gleichungen, die die Dynamik des Modells regeln Systemidentifikation. Dies kann offline erfolgen: Zum Beispiel eine Reihe von Maßnahmen ausführen Übertragungsfunktion oder Matrix. Eine solche Identifizierung aus der Ausgabe kann jedoch nicht die nicht beobachtbare Dynamik berücksichtigen. Manchmal ist das Modell direkt aus bekannten physikalischen Gleichungen gebaut, zum Beispiel im Fall von a Massenbestand System wissen wir das . Selbst unter der Annahme, dass ein "vollständiges" Modell zum Entwerfen des Controllers verwendet wird, sind alle in diesen Gleichungen enthaltenen Parameter (als "nominelle Parameter") nie mit absoluter Präzision bekannt. Das Steuerungssystem muss sich auch dann korrekt verhalten, wenn sie mit einem physischen System mit echten Parameterwerten nicht vom Nominal angeschlossen werden.
Einige erweiterte Steuerungstechniken umfassen einen "Online-Identifizierungsprozess" (siehe später). Die Parameter des Modells werden berechnet ("identifiziert"), während der Controller selbst ausgeführt wird. Wenn beispielsweise eine drastische Variation der Parameter entsteht, wird sich der Controller folglich anpasst, um die korrekte Leistung zu gewährleisten.
- Analyse
Die Analyse der Robustheit eines SISO -Steuerungssystems (Einzeleingangs -Einzelausgang) kann in der Frequenzdomäne unter Berücksichtigung der Übertragungsfunktion des Systems und verwendet werden Nyquist und Bode -Diagramme. Zu den Themen gehören Gewinn- und Phasenrand und Amplitudenrand. Für MIMO (Multi-Input-Multi-Output) und im Allgemeinen müssen kompliziertere Steuerungssysteme die theoretischen Ergebnisse berücksichtigen, die für jede Steuerungstechnik entwickelt wurden (siehe nächster Abschnitt). D.h.
- Einschränkungen
Ein bestimmtes Problem der Robustheit ist die Anforderung, dass ein Steuerungssystem bei Eingabe- und Zustandsbeschränkungen ordnungsgemäß funktioniert. In der physischen Welt ist jedes Signal begrenzt. Es könnte passieren, dass ein Controller Kontrollsignale sendet, auf die das physische System beispielsweise nicht folgt, um ein Ventil mit übermäßiger Geschwindigkeit zu drehen. Dies kann unerwünschtes Verhalten des geschlossenen Systems erzeugen oder sogar Schäden oder Brechen von Aktuatoren oder anderen Subsystemen. Es stehen spezifische Steuerungstechniken zur Verfügung, um das Problem zu lösen: Modellvorhersagekontrolle (siehe später) und Anti-Wind-up-Systeme. Letzteres besteht aus einem zusätzlichen Steuerblock, der sicherstellt, dass das Steuersignal einen bestimmten Schwellenwert niemals überschreitet.
Systemklassifizierungen
Lineare Systemsteuerung
Für MIMO -Systeme kann die Pole -Platzierung mathematisch mit a durchgeführt werden Staatsraumdarstellung des Open-Loop-Systems und Berechnung einer Rückkopplungsmatrix, die Pole in den gewünschten Positionen zuweist. In komplizierten Systemen kann dies computergestützte Berechnungsfunktionen erfordern und kann nicht immer Robustheit gewährleisten. Darüber hinaus werden alle Systemzustände im Allgemeinen nicht gemessen, sodass Beobachter aufgenommen und in die Pole -Platzierung einbezogen werden müssen.
Nichtlineare Systemsteuerung
Prozesse in Branchen mögen Robotik und die Luft-und Raumfahrtindustrie Normalerweise haben eine starke nichtlineare Dynamik. In der Kontrolltheorie ist es manchmal möglich, solche Systemklassen linearisieren und lineare Techniken anzuwenden, aber in vielen Fällen kann es erforderlich sein, von Grund auf zu erstellen, was die Kontrolle von nichtlinearen Systemen ermöglicht. Diese, z. B., Feedback -Linearisierung, Backstepping, Schiebemodussteuerung, Trajektorien -Linearisierungskontrolle nutzen normalerweise die Ergebnisse basierend auf Lyapunovs Theorie. Differentialgeometrie wurde häufig als Instrument zur Verallgemeinerung bekannter linearer Kontrollkonzepte auf den nichtlinearen Fall verwendet und die Feinheiten zeigen, die es zu einem herausfordernden Problem darstellen. Die Kontrolltheorie wurde auch verwendet, um den neuronalen Mechanismus zu entschlüsseln, der kognitive Zustände leitet.[19]
Dezentrale Systemsteuerung
Wenn das System von mehreren Controllern gesteuert wird, ist das Problem eine der dezentralen Kontrolle. Die Dezentralisierung ist in vielerlei Hinsicht hilfreich. Sie hilft beispielsweise dabei, die Systeme für einen größeren geografischen Bereich zu kontrollieren. Die Agenten in dezentralen Steuerungssystemen können mit Kommunikationskanälen interagieren und ihre Aktionen koordinieren.
Deterministische und stochastische Systemsteuerung
Ein stochastisches Kontrollproblem ist eines, bei dem die Entwicklung der Zustandsvariablen zufälligen Schocks außerhalb des Systems ausgesetzt ist. Ein deterministisches Kontrollproblem unterliegt nicht externen zufälligen Schocks.
Hauptkontrollstrategien
Jedes Steuerungssystem muss zunächst die Stabilität des Verhaltens mit geschlossenem Schleifen garantieren. Zum Lineare SystemeDies kann durch direktes Platzieren der Pole erhalten werden. Nichtlineare Steuerungssysteme verwenden bestimmte Theorien (normalerweise basierend auf Aleksandr Lyapunov's Theorie), um Stabilität ohne Rücksicht auf die innere Dynamik des Systems zu gewährleisten. Die Möglichkeit, unterschiedliche Spezifikationen zu erfüllen, variiert von dem berücksichtigten Modell und der gewählten Kontrollstrategie.
- Liste der Hauptsteuerungstechniken
- Adaptive Kontrolle Verwendet eine Online-Identifizierung der Prozessparameter oder die Änderung von Controller-Gewinnen, wodurch starke Robustheitseigenschaften erhalten werden. Adaptive Kontrollen wurden zum ersten Mal in der angewendet Luft-und Raumfahrtindustrie in den 1950er Jahren und haben besonderen Erfolg in diesem Bereich gefunden.
- A Hierarchischer Steuerungssystem ist eine Art von Art von Kontrollsystem in dem eine Reihe von Geräten und Leitungssoftware in a angeordnet sind Hierarchisch Baum. Wenn die Links im Baum von a implementiert werden Computernetzwerkund dann ist dieses hierarchische Steuerungssystem auch eine Form von Netzwerkkontrollsystem.
- Intelligente Kontrolle Verwendet verschiedene KI -Computing -Ansätze wie künstliche neurale Netzwerke, Bayesianische Wahrscheinlichkeit, Fuzzy Logic,[20] maschinelles Lernen, Evolutionsberechnung und genetische Algorythmen oder eine Kombination dieser Methoden, wie z. Neuro-Fuzzy Algorithmen, um a zu steuern Dynamisches System.
- Optimale Kontrolle ist eine bestimmte Steuerungstechnik, bei der das Steuersignal einen bestimmten "Kostenindex" optimiert: Zum Beispiel im Fall eines Satellitens die Strahlstöße, die erforderlich sind, um sie auf die gewünschte Flugbahn zu bringen, die die geringste Menge an Kraftstoff verbrauchen. In industriellen Anwendungen wurden zwei optimale Kontrolldesignmethoden häufig verwendet, da sie gezeigt haben, dass sie eine Stabilität mit geschlossenen Schleife garantieren können. Diese sind Modellvorhersagekontrolle (MPC) und linear-quadratisch-gaußische Kontrolle (LQG). Das erste kann explizit Einschränkungen der Signale im System berücksichtigen, was in vielen industriellen Prozessen ein wichtiges Merkmal ist. Die "optimale Kontroll" -Struktur in MPC ist jedoch nur ein Mittel, um ein solches Ergebnis zu erzielen, da sie keinen echten Leistungsindex des Control-Systems mit geschlossenem Schleifen optimiert. Zusammen mit PID -Controllern sind MPC -Systeme die am weitesten verbreitete Steuerungstechnik in Prozesssteuerung.
- Robuste Kontrolle befasst sich explizit mit Unsicherheit in seinem Ansatz des Controller -Designs. Controller, die verwendet werden robuste Kontrolle Methoden neigen dazu, mit kleinen Unterschieden zwischen dem wahren System und dem für das Design verwendeten nominalen Modell fertig zu werden.[21] Die frühen Methoden von Bode und andere waren ziemlich robust; Die in den 1960er und 1970er Jahren erfundenen Staats-Raum-Methoden fehlten manchmal Robustheit. Beispiele für moderne, robuste Kontrolltechniken umfassen H-Infinity-Loop-Form entwickelt von Duncan McFarlane und Keith Glover, Schiebemodussteuerung (SMC) entwickelt von Vadim Utkinund sichere Protokolle für die Kontrolle großer heterogener Populationen elektrischer Belastungen in Smart -Stromnetzanwendungen.[22] Robuste Methoden zielen darauf ab, eine robuste Leistung zu erzielen und/oder Stabilität in Gegenwart kleiner Modellierungsfehler.
- Stochastische Kontrolle befasst sich mit dem Kontrolldesign mit Unsicherheit im Modell. Bei typischen stochastischen Kontrollproblemen wird angenommen, dass es zufällige Rauschen und Störungen im Modell und im Controller gibt, und das Steuerungsdesign muss diese zufälligen Abweichungen berücksichtigen.
- Selbstorganisierte Kritikalitätskontrolle kann als Versuche definiert werden, sich in die Prozesse zu stören, durch die die selbstorganisiert Das System löst Energie auf.
Menschen in Systemen und Kontrolle
Viele aktive und historische Figuren leisteten einen signifikanten Beitrag zur Kontrolltheorie, einschließlich
- Pierre-Simon Laplace erfand die Z-Transformation in seiner Arbeit an Wahrscheinlichkeitstheorie, jetzt verwendet, um Probleme mit diskreten Kontrollproblemen zu lösen. Die Z-Transformation ist ein diskretes Äquivalent der Laplace-Transformation das ist nach ihm benannt.
- Irmgard flugge-lotz entwickelte die Theorie von diskontinuierliche automatische Steuerung und wandte es auf Automatische Flugzeugsteuerungssysteme.
- Alexander Lyapunov In den 1890er Jahren markiert der Beginn von Stabilitätstheorie.
- Harold S. Black erfand das Konzept von Negative Rückkopplungsverstärker 1927 gelang es ihm, in den 1930er Jahren stabile negative Feedback -Verstärker zu entwickeln.
- Harry Nyquist entwickelte die Nyquist -Stabilitätskriterium Für Feedback -Systeme in den 1930er Jahren.
- Richard Bellman aufgetreten Dynamische Programmierung Seit den 1940er Jahren.[23]
- Warren E. Dixon, Kontrolltheoretiker und Professor
- Andrey Kolmogorov Mit entwickelte die Wiener -Kolmogorov -Filter in 1941.
- Norbert Wiener mit dem Wiener-Kolmogorov-Filter entwickelte und den Begriff prägte Kybernetik In den 1940er Jahren.
- John R. Ragazzini eingeführt Digitale Kontrolle und die Verwendung von Z-Transformation in der Kontrolltheorie (von Laplace erfunden) in den 1950er Jahren.
- Lev Pontryagin stellte die vor Maximales Prinzip und die Bang-Bang-Prinzip.
- Pierre-Louis Lions aufgetreten Viskositätslösungen in stochastische Kontrolle und optimale Kontrolle Methoden.
- Rudolf E. Kálmán Pionierarbeit die Zustandsraum Ansatz zu Systemen und Kontrolle. Stellte die Vorstellungen von vor Kontrollierbarkeit und Beobachtbarkeit. Entwickelte die Kalman -Filter zur linearen Schätzung.
- Ali H. Nayfeh Wer war einer der wichtigsten Mitwirkenden der nichtlinearen Kontrolltheorie und veröffentlichte viele Bücher über Störungsmethoden
- Jan C. Willems Führte das Konzept der Dissipativität als Verallgemeinerung von vor Lyapunov -Funktion Eingabe/Status/Ausgangssysteme. Die Konstruktion der Speicherfunktion, da das Analogon einer Lyapunov -Funktion aufgerufen wird, führte zur Untersuchung der Lineare Matrix -Ungleichheit (LMI) in der Kontrolltheorie. Er war Pionier des Verhaltensansatzes zur mathematischen Systemtheorie.
Siehe auch
- Beispiele für Steuerungssysteme
- Themen in der Kontrolltheorie
- Koeffizientendiagrammmethode
- Kontrolle der Rekonfiguration
- Feedback
- H Unendlichkeit
- Hankel Singularwert
- Kreners Theorem
- Blei-Lag-Kompensator
- Minor Loop Feedback
- Multi-Loop-Feedback
- Positive Systeme
- Radialbasisfunktion
- Wurzelort
- Signal-Flow-Diagramme
- Stabiles Polynom
- Staatsraumdarstellung
- Gleichgewichtszustand
- Vorübergehende Reaktion
- Vorübergehender Zustand
- Unterwirkung
- Yola -kucera -Parametrisierung
- Markov -Kettennäherungsmethode
- Andere verwandte Themen
- Adaptives System
- Automatisierung und Fernbedienung
- Bond -Diagramm
- Steuerungstechnik
- Control–feedback–abort loop
- Controller (Kontrolltheorie)
- Kybernetik
- Intelligente Kontrolle
- Mathematische Systemtheorie
- Negativer Rückkopplungsverstärker
- Menschen in Systemen und Kontrolle
- Wahrnehmungskontrolltheorie
- Systemtheorie
- Zeitskala -Kalkül
Verweise
- ^ Bennett, Stuart (1992). A History of Control Engineering, 1930-1955. Iet. p. 48. ISBN978-0-86341-299-8.
- ^ Maxwell, J. C. (1868). "Über Gouverneure" (PDF). Verfahren der Royal Society. 100.
- ^ Minorsky, Nicolas (1922). "Richtungsstabilität automatisch gesteuerter Körper". Zeitschrift der American Society of Naval Engineers. 34 (2): 280–309. doi:10.1111/j.1559-3584.1922.tb04958.x.
- ^ GND. "Katalog der Deutschen Nationalbibliothek (Autoritätskontrolle)". portal.dnb.de. Abgerufen 26. April, 2020.
- ^ Maxwell, J.C. (1868). "Über Gouverneure". Verfahren der Royal Society of London. 16: 270–283. doi:10.1098/RSPL.1867.0055. JStor 112510.
- ^ "Kontrolltheorie: Geschichte, mathematische Errungenschaften und Perspektiven | E. Fernandez-cara1 und E. Zuazua". Citeseerx 10.1.1.302.5633.
- ^ Routh, E.J.; Fuller, A.T. (1975). Bewegungsstabilität. Taylor & Francis.
- ^ Routh, E.J. (1877). Eine Abhandlung über die Stabilität eines bestimmten Bewegungszustands, insbesondere die stetige Bewegung: insbesondere stetige Bewegung. Macmillan und co.
- ^ Hurwitz, A. (1964). "Unter den Bedingungen, unter denen eine Gleichung nur Wurzeln mit negativen realen Teilen hat". Ausgewählte Arbeiten zu mathematischen Trends in der Kontrolltheorie.
- ^ Flugge-lotz, Irmgard; Titus, Harold A. (Oktober 1962). "Optimum und Quasi-optimum-Kontrolle der Systeme dritter und vierter Ordnung" (PDF). Technischer Bericht der Stanford University (134): 8–12. Archiviert von das Original (PDF) am 27. April 2019.
- ^ Hallion, Richard P. (1980). Sicherman, Barbara; Green, Carol Hurd; Kantrov, Ilene; Walker, Harriette (Hrsg.). Bemerkenswerte amerikanische Frauen: Die moderne Periode: Ein biografisches Wörterbuch. Cambridge, Mass.: Belknap Press von Harvard University Press. pp.241–242. ISBN 9781849722704.
- ^ "Feedback and Control Systems" - JJ Di Steffano, AR Stubberud, IJ Williams. Schaum-Umrissreihe, McGraw-Hill 1967
- ^ Mayr, Otto (1970). Die Ursprünge der Rückkopplungsregelung. Clinton, MA USA: The Colonial Press, Inc.
- ^ Mayr, Otto (1969). Die Ursprünge der Rückkopplungsregelung. Clinton, MA USA: The Colonial Press, Inc.
- ^ Ang, K.H.; Chong, G.C.Y.; Li, Y. (2005). "PID -Steuerungssystemanalyse, Design und Technologie" (PDF). IEEE -Transaktionen zur Steuerungssystemtechnologie. 13 (4): 559–576. doi:10.1109/tcst.2005.847331. S2CID 921620.
- ^ "Trimpoint".
- ^ Donald M Wiberg (1971). Zustandsraum und lineare Systeme. Schaums Umrissreihe. McGraw Hill. ISBN 978-0-07-070096-3.
- ^ Terrell, William (1999). "Einige grundlegende Kontrolltheorie I: Kontrollierbarkeit, Beobachtbarkeit und Dualität - und - einige grundlegende Kontrolltheorie II: Feedback -Linearisierung einzelner Eingabe nichtlineare Systeme". Amerikanischer mathematischer Monat. 106 (9): 705–719 und 812–828. doi:10.2307/2589614. JStor 2589614.
- ^ Gu Shi; et al. (2015). "Kontrollierbarkeit struktureller Gehirnnetzwerke (Artikelnummer 8414)". Naturkommunikation. 6 (6): 8414. Arxiv:1406.5197. Bibcode:2015natco ... 6.8414g. doi:10.1038/ncomms9414. PMC 4600713. PMID 26423222.
Hier verwenden wir Tools aus Kontroll- und Netzwerktheorien, um eine mechanistische Erklärung dafür zu geben, wie sich das Gehirn zwischen kognitiven Zuständen aus der Netzwerkorganisation der weißen Substanz bewegt
- ^ Liu, Jie; Wilson Wang; Farid Golnaraghi; Eric Kubica (2010). "Ein neuartiger Fuzzy -Framework für nichtlineare Systemsteuerung". Fuzzy -Sets und -Systeme. 161 (21): 2746–2759. doi:10.1016/j.fs.2010.04.009.
- ^ Melby, Paul; et., Al. (2002). "Robustheit der Anpassung in kontrollierten selbstanpassenden chaotischen Systemen". Schwankungs- und Geräuschbuchstaben. 02 (4): L285 - L292. doi:10.1142/s0219477502000919.
- ^ N. A. Sinitsyn. S. Kundu, S. Backhaus (2013). "Sichere Protokolle zur Erzeugung von Stromimpulsen mit heterogenen Populationen thermostatisch kontrollierter Lasten". Energieumwandlung und -management. 67: 297–308. Arxiv:1211.0248. doi:10.1016/j.enconman.2012.11.021. S2CID 32067734.
- ^ Richard Bellman (1964). "Kontrolltheorie". Wissenschaftlicher Amerikaner. Vol. 211, Nr. 3. S. 186–200. doi:10.1038/ScientificAmerican0964-186.
Weitere Lektüre
- Levine, William S., ed. (1996). Das Steuerhandbuch. New York: CRC Press. ISBN 978-0-8493-8570-4.
- Karl J. Åström; Richard M. Murray (2008). Feedback -Systeme: Eine Einführung für Wissenschaftler und Ingenieure (PDF). Princeton University Press. ISBN 978-0-691-13576-2.
- Christopher Kilian (2005). Moderne Steuerungstechnologie. Thompson Delmar Lernen. ISBN 978-1-4018-5806-3.
- Vannevar Bush (1929). Analyse der Betriebsschaltung. John Wiley and Sons, Inc.
- Robert F. Stengel (1994). Optimale Kontrolle und Schätzung. Dover Publications. ISBN 978-0-486-68200-6.
- Franklin; et al. (2002). Feedback -Steuerung dynamischer Systeme (4 ed.). New Jersey: Prentice Hall. ISBN 978-0-13-032393-4.
- Joseph L. Hellerstein; Dawn M. Tilbury; Sujay Parekh (2004). Feedback -Steuerung von Computersystemen. John Wiley und Söhne. ISBN 978-0-471-26637-2.
- Diederich Hinrichsen und Anthony J. Pritchard (2005). Theorie der mathematischen Systeme I - Modellierung, Zustandsraumanalyse, Stabilität und Robustheit. Springer. ISBN 978-3-540-44125-0.
- Andrei, Neculai (2005). "Moderne Kontrolltheorie - eine historische Perspektive" (PDF). Abgerufen 10. Oktober, 2007.
{{}}
: Journal zitieren erfordert|journal=
(Hilfe) - Sonontag, Eduardo (1998). Mathematische Kontrolltheorie: Deterministische endliche dimensionale Systeme. Zweite Ausgabe (PDF). Springer. ISBN 978-0-387-98489-6.
- Goodwin, Graham (2001). Steuerungssystemdesign. Prentice Hall. ISBN 978-0-13-958653-8.
- Christophe Basso (2012). Entwerfen von Steuerschlägen für lineare und Schaltnetzmittel: Ein Tutorial Guide. Artech House. ISBN 978-1608075577.
- Boris J. Lurie; Paul J. Enright (2019). Klassische Rückkopplungssteuerung mit nichtlinearen Multi-Schleifen-Systemen (3 ed.). CRC Press. ISBN 978-1-1385-4114-6.
- Für Chemieingenieurwesen
- Luyben, William (1989). Prozessmodellierung, Simulation und Kontrolle für Chemieingenieure. McGraw Hill. ISBN 978-0-07-039159-8.
Externe Links
- Kontrolltutorials für MATLAB, eine Reihe von Arbeitskontrollbeispielen, die durch verschiedene Methoden gelöst wurden.
- Steuerung und Best Practices
- Erweiterte Kontrollstrukturen, freie Online-Simulatoren, die die Kontrolltheorie erklären
- Die dunkle Seite der Schleifenkontrolltheorie, ein professionelles Seminar, das 2012 an APEC unterrichtet wurde (Orlando, FL).