Versuchsplanung

Entwurf von Experimenten mit voller faktorielles Design (links), Reaktionsfläche mit Polynom zweiten Grades (rechts)

Das Versuchsplanung (DAMHIRSCHKUH, Dox, oder Experimentelles Design) ist das Design einer Aufgabe, die darauf abzielt, die Variation von Informationen unter Bedingungen zu beschreiben und zu erklären, die angenommen werden, um die Variation widerzuspiegeln. Der Begriff ist im Allgemeinen verbunden mit Experimente in dem das Design Bedingungen einführt, die direkt die Variation beeinflussen, aber auch auf das Design von beziehen können Quasi-Experimente, in welchem natürlich Bedingungen, die die Variation beeinflussen, werden zur Beobachtung ausgewählt.

In seiner einfachsten Form zielt ein Experiment darauf ab, das Ergebnis vorherzusagen, indem eine Änderung der Voraussetzungen eingeführt wird, die durch eine oder mehrere dargestellt wird unabhängige Variablen, auch als "Eingabevariablen" oder "Prädiktorvariablen" bezeichnet. Es wird im Allgemeinen angenommen abhängigen Variablen, auch als "Ausgangsvariablen" oder "Antwortvariablen" bezeichnet. Das experimentelle Design kann sich auch identifizieren Kontrollvariablen Dies muss konstant gehalten werden, um zu verhindern, dass externe Faktoren die Ergebnisse beeinflussen. Das experimentelle Design beinhaltet nicht nur die Auswahl geeigneter unabhängiger, abhängiger und Kontrollvariablen, sondern die Abgabe des Experiments unter statistisch optimalen Bedingungen angesichts der Einschränkungen der verfügbaren Ressourcen. Es gibt mehrere Ansätze zur Bestimmung des Satzes von Designpunkten (eindeutige Kombinationen der Einstellungen der unabhängigen Variablen), die im Experiment verwendet werden sollen.

Hauptprobleme beim experimentellen Design sind die Einrichtung von Gültigkeit, Verlässlichkeit, und Reproduzierbarkeit. Beispielsweise können diese Bedenken teilweise durch sorgfältige Auswahl der unabhängigen Variablen, die Verringerung des Risikos eines Messfehlers und der Sicherstellung, dass die Dokumentation der Methode ausreichend detailliert ist, berücksichtigt werden. Verwandte Bedenken umfassen das Erreichen angemessener Maßstäbe von Statistische Macht und Empfindlichkeit.

Richtig gestaltete Experimente fördern das Wissen in den Natur- und Sozialwissenschaften und -technik. Andere Anwendungen umfassen Marketing- und Richtlinien zur Verfügung. Die Untersuchung des Entwurfs von Experimenten ist ein wichtiges Thema in Metasz.

Geschichte

Statistische Experimente nach Charles S. Peirce

Eine Theorie von statistische Inferenz wurde entwickelt von Charles S. Peirce in "Abbildungen der Logik der Wissenschaft"(1877–1878)[1] und "Eine Theorie wahrscheinlicher Schlussfolgerung"(1883),[2] Zwei Veröffentlichungen, die die Bedeutung der randomisierungsbasierten Inferenz in Statistiken hervorheben.[3]

Randomisierte Experimente

Charles S. Peirce hat zufällig Freiwillige zu a zugewiesen geblendet, Design mit wiederholten Messungen Bewertung ihrer Fähigkeit, Gewichte zu unterscheiden.[4][5][6][7] Das Experiment von Peirce inspirierte andere Forscher in Psychologie und Bildung, die im 19. Jahrhundert eine Forschungstradition randomisierter Experimente in Labors und spezialisierten Lehrbüchern entwickelten.[4][5][6][7]

Optimale Designs für Regressionsmodelle

Charles S. Peirce trug auch die erste englischsprachige Veröffentlichung auf einem bei optimales Design zum Regression Modelle 1876.[8] Ein Pionierarbeit optimales Design zum Polynomregression wurde vorgeschlagen von Gergonne im Jahr 1815. 1918, Kirstine Smith Veröffentlichte optimale Designs für Polynome von Sechs (und weniger).[9][10]

Sequenzen von Experimenten

Die Verwendung einer Abfolge von Experimenten, in denen das Design eines jeden von den Ergebnissen früherer Experimente abhängen kann, einschließlich der möglichen Entscheidung, das Experimentieren zu beenden, liegt im Rahmen des Geltungsbereichs von Sequentielle Analyse, ein Feld, das Pionier war[11] durch Abraham Wald Im Zusammenhang mit sequentiellen Tests statistischer Hypothesen.[12] Herman Chernoff schrieb einen Überblick über optimale sequentielle Designs,[13] während Adaptive Designs wurden von S. zacks befragt.[14] Eine bestimmte Art von sequentiellem Design ist der "zweiarmige Bandit", das auf die verallgemeinert wurde Mehr bewaffneter Bandit, auf welche frühen Arbeiten von durchgeführt wurden von Herbert Robbins 1952.[15]

Fisher's Prinzipien

Eine Methodik zum Entwerfen von Experimenten wurde vorgeschlagen von Ronald Fisher, in seinen innovativen Büchern: Die Anordnung von Feldversuche (1926) und Das Design von Experimenten (1935). Ein Großteil seiner Pionierarbeit befasste sich mit landwirtschaftlichen Anwendungen statistischer Methoden. Als allgemeines Beispiel beschrieb er, wie man das testet Dame schmeckt Tee Hypothese, dass eine bestimmte Dame allein durch Geschmack unterscheiden konnte, unabhängig davon, ob die Milch oder der Tee zum ersten Mal in die Tasse gelegt wurde. Diese Methoden wurden in biologischer, psychologischer und landwirtschaftlicher Forschung weitgehend angepasst.[16]

Vergleich
In einigen Studienbereichen ist es nicht möglich, unabhängige Messungen an ein nachvollziehbares Problem zu haben Metrologiestandard. Vergleiche zwischen Behandlungen sind viel wertvoller und sind normalerweise vorzuziehen und oft mit a verglichen Wissenschaftliche Kontrolle oder traditionelle Behandlung, die als Grundlinie fungiert.
Randomisierung
Eine zufällige Zuordnung ist der Prozess der Zuweisung von Personen zufällig Gruppen oder verschiedenen Gruppen in einem Experiment, so dass jede Person der Bevölkerung die gleiche Chance hat, Teilnehmer an der Studie zu werden. Die zufällige Zuordnung von Individuen zu Gruppen (oder Bedingungen innerhalb einer Gruppe) unterscheidet ein strengeres "wahres" Experiment einer Beobachtungsstudie oder "Quasi-Experiment".[17] Es gibt eine umfangreiche mathematische Theorie, die die Konsequenzen der Zuteilung der Einheiten an Behandlungen mittels zufälliger Mechanismus (z. B. Tabellen mit Zufallszahlen oder die Verwendung von Randomisierungsgeräten wie Spielkarten oder Würfel) untersucht. Die Zuweisung von Einheiten zu Behandlungen zufällig mindert die Minderung verwirrend, was Auswirkungen aufgrund anderer Faktoren als der Behandlung hat, die sich aus der Behandlung ergeben scheinen.
Die mit einer zufälligen Zuordnung verbundenen Risiken (z. B. ein schwerwiegendes Ungleichgewicht in einem Schlüsselmerkmal zwischen einer Behandlungsgruppe und einer Kontrollgruppe) sind kalkulierbar und können daher mit genügend experimentellen Einheiten auf ein akzeptables Niveau verwaltet werden. Wenn die Bevölkerung jedoch in mehrere Subpopulationen unterteilt ist, die sich irgendwie unterscheiden und die Forschung erfordert, dass jede Subpopulation gleich groß ist, kann eine geschichtete Stichprobenabtastung verwendet werden. Auf diese Weise werden die Einheiten in jeder Subpopulation randomisiert, aber nicht die gesamte Stichprobe. Die Ergebnisse eines Experiments können zuverlässig von den experimentellen Einheiten zu einem größeren verallgemeinert werden Statistische Bevölkerung von Einheiten nur, wenn die experimentellen Einheiten a sind zufällige Probe aus der größeren Bevölkerung; Der wahrscheinliche Fehler einer solchen Extrapolation hängt unter anderem von der Stichprobengröße ab.
Statistische Replikation
Messungen unterliegen normalerweise Variationen und Messungsungenauigkeit; Messungsunsicherheit; Messunsicherheit; Daher werden sie wiederholt und vollständige Experimente werden repliziert, um die Variationsquellen zu identifizieren, die tatsächlichen Auswirkungen von Behandlungen besser abzuschätzen, die Zuverlässigkeit und Gültigkeit des Experiments weiter zu stärken und das vorhandene Wissen über das Thema zu erweitern.[18] Es müssen jedoch bestimmte Bedingungen erfüllt sein, bevor die Replikation des Experiments begonnen wird: Die ursprüngliche Forschungsfrage wurde in a veröffentlicht Peer-Review Journal oder weit verbreitet ist der Forscher unabhängig vom ursprünglichen Experiment, der Forscher muss zunächst versuchen, die ursprünglichen Ergebnisse mit den ursprünglichen Daten zu replizieren, und die Beschreibung sollte angeben, dass die durchgeführte Studie eine Replikationsstudie ist, die versucht hat, dem Original zu folgen so streng wie möglich studieren.[19]
Blockierung
Die Blockierung ist die nicht randomische Anordnung von experimentellen Einheiten in Gruppen (Blöcke), die aus Einheiten bestehen, die einander ähnlich sind. Die Blockierung reduziert bekannte, aber irrelevante Variationsquellen zwischen Einheiten und ermöglicht somit eine größere Genauigkeit bei der Schätzung der untersuchten Variationsquelle.
Orthogonalität
Beispiel für orthogonales faktorielles Design
Orthogonalität betrifft die Vergleichsformen (Kontraste), die legitim und effizient durchgeführt werden können. Kontraste können durch Vektoren dargestellt und orthogonale Kontraste sind unkorreliert und unabhängig verteilt, wenn die Daten normal sind. Aufgrund dieser Unabhängigkeit liefert jede orthogonale Behandlung den anderen unterschiedliche Informationen. Wenn es gibt T Behandlungen und T - 1 orthogonale Kontraste, alle Informationen, die aus dem Experiment erfasst werden können, sind aus dem Satz von Kontrasten erhältlich.
Faktorielle Experimente
Verwendung von faktoriellen Experimenten anstelle der One-Factor-at-a-Time-Methode. Diese sind effizient bei der Bewertung der Auswirkungen und möglicher Bewertung Interaktionen von mehreren Faktoren (unabhängige Variablen). Analyse von Experiment Das Design basiert auf der Grundlage des Varianzanalyse, Eine Sammlung von Modellen, die die beobachtete Varianz in Komponenten partitionieren, gemäß den Faktoren, die das Experiment abschätzen oder testen muss.

Beispiel

Balance à tabac 1850.JPG

Dieses Beispiel für Entwurfsexperimente wird auf Harold Hotellingauf Beispielen von Beispielen aus Frank Yates.[20][21][13] Die in diesem Beispiel entworfenen Experimente beinhalten Kombinatorische Designs.[22]

Gewichte von acht Objekten werden mit a gemessen Pan -Gleichgewicht und Satz von Standardgewichten. Jedes Gewicht misst die Gewichtsdifferenz zwischen Objekten in der linken Pfanne und allen Objekten in der rechten Pfanne durch Zugabe kalibrierter Gewichte in die hellere Pfanne, bis sich das Gleichgewicht im Gleichgewicht befindet. Jede Messung hat a zufälliger Fehler. Der durchschnittliche Fehler ist Null; das Standardabweichungen des Wahrscheinlichkeitsverteilung von den Fehlern ist die gleiche Zahl σ bei unterschiedlichen Wiegen; Fehler bei verschiedenen Wiegen sind unabhängig. Bezeichnen die wahren Gewichte durch

Wir betrachten zwei verschiedene Experimente:

  1. Wiegen Sie jedes Objekt in einer Pfanne, wobei die andere Pfanne leer ist. Lassen Xi das gemessene Gewicht des Objekts sein i = 1, ..., 8.
  2. Machen Sie die acht Wiegen gemäß dem folgenden Zeitplan - a Wiegenmatrix-und lass Yi der gemessene Unterschied für sein i = 1, ..., 8:
Dann der geschätzte Wert des Gewichts θ1 ist
Ähnliche Schätzungen finden Sie für die Gewichte der anderen Elemente. Zum Beispiel

Die Frage der Experimente ist: Welches Experiment ist besser?

Die Varianz der Schätzung X1 von θ1 ist σ2 Wenn wir das erste Experiment verwenden. Wenn wir jedoch das zweite Experiment verwenden, ist die Varianz der oben angegebenen Schätzung σ2/8. Das zweite Experiment gibt uns daher 8 -mal so viel Präzision für die Schätzung eines einzelnen Elements und schätzt alle Elemente gleichzeitig mit der gleichen Präzision. Was das zweite Experiment mit acht erreicht, müsste 64 Wiegen erfordern, wenn die Gegenstände separat gewogen werden. Beachten Sie jedoch, dass die Schätzungen für die im zweiten Experiment erhaltenen Elemente Fehler aufweisen, die miteinander korrelieren.

Viele Probleme des Entwurfs von Experimenten beinhalten Kombinatorische Designswie in diesem und anderen Beispiel.[22]

Fehlalarme vermeiden

Falsch positiv Schlussfolgerungen, die oft aus dem resultieren Druck zum Veröffentlichen oder der eigene des Autors Bestätigungsverzerrungsind in vielen Bereichen eine inhärente Gefahr. Eine gute Möglichkeit, Verzerrungen zu verhindern, die möglicherweise zu falsch positiven Aspekten in der Datenerfassungsphase führen, besteht darin, ein Doppelblinddesign zu verwenden. Wenn ein doppelblindes Design verwendet wird, werden die Teilnehmer zufällig experimentellen Gruppen zugeordnet, aber der Forscher ist sich nicht bewusst, was die Teilnehmer zu welcher Gruppe gehören. Daher kann der Forscher die Reaktion der Teilnehmer auf die Intervention nicht beeinflussen. Experimentelle Entwürfe mit nicht genannten Freiheitsgraden sind ein Problem.[23] Dies kann zu bewusster oder unbewusster führen "P-Hacking": Versuchen Sie mehrere Dinge, bis Sie das gewünschte Ergebnis erzielen. Es beinhaltet normalerweise die Manipulation - vielleicht unbewusst - des Prozesses von statistische Analyse und die Freiheitsgrade, bis sie eine Zahl unter dem p <0,05 -statistischen Signifikanzniveau zurückgeben.[24][25] Daher sollte die Gestaltung des Experiments eine klare Aussage enthalten, in der die zu durchgeführten Analysen vorgeschlagen werden. P-Hacking kann durch Vorschwererforschungen verhindert werden, in denen Forscher ihren Datenanalyseplan an das Journal senden müssen, in dem sie ihr Papier veröffentlichen möchten, bevor sie überhaupt mit ihrer Datenerfassung beginnen. Daher ist keine Datenmanipulation möglich (möglich (möglich (möglich).https://osf.io). Eine andere Möglichkeit, dies zu verhindern, besteht darin Sie werden möglicherweise als Ausreißer weggenommen.

Eine klare und vollständige Dokumentation der experimentellen Methodik ist ebenfalls wichtig, um die Replikation der Ergebnisse zu unterstützen.[26]

Diskussionsthemen beim Aufbau eines experimentellen Designs

Ein experimentelles Design oder eine randomisierte klinische Studie erfordert eine sorgfältige Berücksichtigung mehrerer Faktoren, bevor das Experiment tatsächlich durchgeführt wird.[27] Ein experimentelles Design ist das Auslegen eines detaillierten Versuchsplans, bevor das Experiment durchgeführt wird. Einige der folgenden Themen wurden bereits in den Prinzipien des Abschnitts Experimental Design erörtert:

  1. Wie viele Faktoren hat das Design und sind die Ebenen dieser Faktoren fixiert oder zufällig?
  2. Sind Kontrollbedingungen erforderlich und was sollten sie sein?
  3. Manipulationschecks: Hat die Manipulation wirklich funktioniert?
  4. Was sind die Hintergrundvariablen?
  5. Wie groß ist die Stichprobengröße? Wie viele Einheiten müssen gesammelt werden, damit das Experiment verallgemeinerbar ist und genug hat Energie?
  6. Was ist die Relevanz von Wechselwirkungen zwischen Faktoren?
  7. Was hat der Einfluss verzögerter Auswirkungen wesentlicher Faktoren auf die Ergebnisse?
  8. Wie wirken sich Reaktionsverschiebungen auf Selbstberichtsmaßnahmen aus?
  9. Wie machbar ist die wiederholte Verabreichung derselben Messinstrumente zu denselben Einheiten zu unterschiedlichen Gelegenheiten mit einem Post-Test- und Follow-up-Test?
  10. Was ist mit einem Proxy -Pretest?
  11. Gibt es lauernde Variablen?
  12. Sollte der Klient/Patient, Forscher oder sogar der Analytiker der Daten blind für Bedingungen sein?
  13. Was ist die Machbarkeit der anschließenden Anwendung verschiedener Bedingungen auf dieselben Einheiten?
  14. Wie viele von jeder Kontroll- und Geräuschfaktoren sollten berücksichtigt werden?

Die unabhängige Variable einer Studie hat oft viele Ebenen oder verschiedene Gruppen. In einem echten Experiment können Forscher eine experimentelle Gruppe haben, in der ihre Interventionstests die Hypothese implementiert wird, und eine Kontrollgruppe, die alle das gleiche Element wie die experimentelle Gruppe hat, ohne das interventionelle Element. Wenn also alles andere außer einer Intervention konstant gehalten wird, können die Forscher mit einiger Sicherheit zertifizieren, dass dieses eine Element die beobachtete Veränderung verursacht hat. In einigen Fällen ist es nicht ethisch, eine Kontrollgruppe zu haben. Dies wird manchmal unter Verwendung von zwei verschiedenen experimentellen Gruppen gelöst. In einigen Fällen können unabhängige Variablen nicht manipuliert werden, beispielsweise beim Testen des Unterschieds zwischen zwei Gruppen, die eine andere Krankheit haben oder den Unterschied zwischen den Geschlechtern testen (offensichtlich Variablen, die schwierig oder unethisch wären, um den Teilnehmern zuzuweisen). In diesen Fällen kann ein quasi-experimentelles Design verwendet werden.

Kausale Zuschreibungen

Im reinen experimentellen Design wird die unabhängige (Prädiktor-) Variable vom Forscher manipuliert - dh - jeder Teilnehmer der Forschung wird zufällig aus der Population ausgewählt, und jeder ausgewählte Teilnehmer wird zufällig den Bedingungen der unabhängigen Variablen zugeordnet. Nur wenn dies erfolgt, ist es möglich, mit hoher Wahrscheinlichkeit zu zertifizieren, dass der Grund für die Unterschiede in den Ergebnisvariablen durch die verschiedenen Bedingungen verursacht wird. Daher sollten Forscher nach Möglichkeit das experimentelle Design gegenüber anderen Entwurfstypen wählen. Die Art der unabhängigen Variablen erlaubt jedoch nicht immer Manipulation. In diesen Fällen müssen die Forscher sich nicht über die kausale Zuschreibung beglaubigen, wenn ihr Design dies nicht zulässt. Zum Beispiel werden die Teilnehmer bei Beobachtungsdesigns nicht zufällig den Bedingungen zugeordnet. Wenn es also Unterschiede in Ergebnisvariablen zwischen den Bedingungen gibt, ist es wahrscheinlich, dass es etwas anderes als die Unterschiede zwischen den Bedingungen gibt, die die Unterschiede in den Ergebnissen verursachen, das, das, das, das ist - eine dritte Variable. Gleiches gilt für Studien mit Korrelationsdesign. (Adér & Mellenbergh, 2008).

Statistische Kontrolle

Es ist am besten, dass ein Prozess vor der Durchführung von entworfenen Experimenten eine angemessene statistische Kontrolle ist. Wenn dies nicht möglich ist, ermöglichen die ordnungsgemäße Blockierung, Replikation und Randomisierung das sorgfältige Durchführen von entworfenen Experimenten.[28] Um die störenden Variablen zu kontrollieren, Institut Institut für die Forscher Kontrollkontrollen als zusätzliche Maßnahmen. Die Ermittler sollten sicherstellen, dass unkontrollierte Einflüsse (z. B. Wahrnehmung der Glaubwürdigkeit der Quelle) die Ergebnisse der Studie nicht verzerren. EIN Manipulationscheck ist ein Beispiel für eine Steuerung. Manipulationsprüfungen ermöglichen es den Ermittlern, die Hauptvariablen zu isolieren, um die Unterstützung zu stärken, die diese Variablen wie geplant funktionieren.

Einer der wichtigsten Anforderungen an experimentelle Forschungsdesigns ist die Notwendigkeit, die Auswirkungen von zu beseitigen falsch, intervenieren und Antezedenzvariablen. Im grundlegendsten Modell führt Ursache (x) zu Wirkung (y). Aber es könnte eine dritte Variable (z) geben, die (y) beeinflusst, und X könnte überhaupt nicht die wahre Ursache geben. Z soll eine fehlerhafte Variable sein und muss für kontrolliert werden. Das gleiche gilt für Zwischenvariablen (Eine Variable zwischen der vermeintlichen Ursache (x) und dem Effekt (y)) und Annezizentvariablen (eine Variable vor der angeblichen Ursache (x), die die wahre Ursache ist). Wenn eine dritte Variable beteiligt ist und nicht kontrolliert wurde, soll die Beziehung eine Null -Ordnung -Beziehung sein. In den meisten praktischen Anwendungen experimenteller Forschungsdesigns gibt es mehrere Ursachen (x1, x2, x3). In den meisten Entwürfen wird jeweils nur eine dieser Ursachen manipuliert.

Versuchsdesigns nach Fisher

Einige effiziente Konstruktionen zur Schätzung mehrerer Haupteffekte wurden unabhängig voneinander und in der Nähe von Nachfolge festgestellt Raj Chandra Bose und K. Kishen im Jahr 1940 am Indisches statistisches Institut, blieb aber wenig bekannt, bis die Plackett -Burman -Designs wurden veröffentlicht in Biometrika im Jahr 1946. Etwa zur gleichen Zeit, C. R. Rao stellte die Konzepte von vor orthogonale Arrays als experimentelle Entwürfe. Dieses Konzept spielte eine zentrale Rolle bei der Entwicklung von Taguchi -Methoden durch Genichi Taguchi, der während seines Besuchs im indischen Statistischen Institut Anfang der 1950er Jahre stattfand. Seine Methoden wurden erfolgreich von der japanischen und indischen Industrie angewendet und übernommen und anschließend auch von der US -Industrie angenommen, wenn auch einige Vorbehalte.

Im Jahr 1950, Gertrude Mary Cox und William Gemmell Cochran veröffentlichte das Buch Versuchsdesigns, Dies wurde die Hauptreferenzarbeit zum Design von Experimenten für Statistiker seit Jahren.

Entwicklungen der Theorie von Lineare Modelle haben die Fälle, in denen sich frühe Schriftsteller beteiligten, umfasst und übertroffen. Heute beruht die Theorie auf fortgeschrittenen Themen in Lineare Algebra, Algebra und Kombinatorik.

Wie bei anderen Statistikzweigen wird experimentelles Design mit beiden verfolgt Häufigkeit und Bayesian Ansätze: Bei der Bewertung statistischer Eingriffe wie experimentellen Designs, Häufige Statistiken studiert die Stichprobenverteilung während Bayes'sche Statistik Updates a Wahrscheinlichkeitsverteilung Auf dem Parameterraum.

Einige wichtige Mitwirkende zum Bereich der experimentellen Entwürfe sind C. S. Peirce, R. A. Fisher, F. Yates, R. C. BoseA. C. Atkinson, R. A. Bailey, D. R. Cox, G. E. P. Box, W. G. Cochran, W. T. Federer, V. V. Fedorov, A. S. Hedayat, J. Kiefer, O. Kemphorne, J. A. Nelder, Andrej Pázman, Friedrich Pukelsheim, D. Raghavarao, C. R. Rao, Shrikhande S. S., J. N. Srivastava, William J. Studden, G. Taguchi und H. P. Wynn.[29]

Die Lehrbücher von D. Montgomery, R. Myers und G. Box/W. Hunter/J.S. Hunter hat Generationen von Studenten und Praktikern erreicht.[30] [31] [32] [33] [34]

Einige Diskussionen über experimentelles Design im Kontext von Systemidentifikation (Modellgebäude für statische oder dynamische Modelle) wird in angegeben[35] und.[36]

Menschliche Teilnehmerbeschränkungen

Gesetze und ethische Überlegungen schließen einige sorgfältig gestaltete Experimente mit menschlichen Probanden aus. Rechtliche Einschränkungen hängen davon abZuständigkeit. Einschränkungen können beinhaltenInstitutionelle Überprüfungsgremien, Einverständniserklärung und Vertraulichkeit Auswirkungen auf klinische (medizinische) Studien sowie Verhaltens- und Sozialwissenschaftsexperimente.[37]Im Bereich der Toxikologie zum Beispiel wird das Experimentieren im Labor durchgeführt Tiere mit dem Ziel, sichere Expositionsgrenzen für zu definieren Menschen.[38] Ausgleich der Einschränkungen sind Ansichten aus dem medizinischen Bereich.[39] In Bezug auf die Randomisierung von Patienten "... wenn niemand weiß, welche Therapie besser ist, gibt es keine ethische Notwendigkeit, eine oder eine andere Therapie zu verwenden." (S. 380) In Bezug auf das experimentelle Design "... ist es eindeutig nicht ethisch, Probanden in Gefahr zu bringen, Daten in einer schlecht gestalteten Studie zu sammeln, wenn diese Situation leicht vermieden werden kann ...". (S. 393)

Siehe auch

Verweise

  1. ^ Peirce, Charles Sanders (1887). "Abbildungen der Logik der Wissenschaft". Open Court (10. Juni 2014). ISBN0812698495.
  2. ^ Peirce, Charles Sanders (1883). "Eine Theorie wahrscheinlicher Inferenz". In C. S. Peirce (Hrsg.), Studien in Logik von Mitgliedern der Johns Hopkins University (S. 126–181). Little, Brown und Co (1883)
  3. ^ Stigler, Stephen M. (1978). "Mathematische Statistiken in den frühen Zuständen". Annals of Statistics. 6 (2): 239–65 [248]. doi:10.1214/aoS/1176344123. JStor 2958876. HERR 0483118. In der Tat enthält Pierces Arbeit eine der frühesten expliziten Vermerke der mathematischen Randomisierung als Grundlage für Inferenz, von der ich weiß (Peirce, 1957, Seiten 216–219
  4. ^ a b Peirce, Charles Sanders; Jastrow, Joseph (1885). "Über kleine Unterschiede in der Empfindung". Memoiren der National Academy of Sciences. 3: 73–83.
  5. ^ a b von Hacking, Ian (September 1988). "Telepathie: Ursprünge der Randomisierung im experimentellen Design". Isis. 79 (3): 427–451. doi:10.1086/354775. JStor 234674. HERR 1013489. S2CID 52201011.
  6. ^ a b Stephen M. Stigler (November 1992). "Eine historische Sichtweise statistischer Konzepte in Psychologie und Bildungsforschung". American Journal of Education. 101 (1): 60–70. doi:10.1086/444032. JStor 1085417. S2CID 143685203.
  7. ^ a b Trudy DeHue (Dezember 1997). "Täuschung, Effizienz und zufällige Gruppen: Psychologie und die allmähliche Entstehung des zufälligen Gruppendesigns". Isis. 88 (4): 653–673. doi:10.1086/383850. PMID 9519574. S2CID 23526321.
  8. ^ Peirce, C. S. (1876). "Hinweis zur Theorie der Wirtschaft der Forschung". Coast Survey Report: 197–201., tatsächlich veröffentlicht 1879, NOAA PDF Eprint.
    Nachgedruckt Gesammelte Papiere 7, Absätze 139–157, auch in Schriften 4, S. 72–78 und in Peirce, C. S. (Juli -August 1967). "Hinweis zur Theorie der Wirtschaft der Forschung". Unternehmensforschung. 15 (4): 643–648. doi:10.1287/Opre.15.4.643. JStor 168276.
  9. ^ Guttorp, P.; Lindgren, G. (2009). "Karl Pearson und die skandinavische Schule der Statistik". Internationale statistische Überprüfung. 77: 64. Citeseerx 10.1.1.368.8328. doi:10.1111/j.1751-5823.2009.00069.x. S2CID 121294724.
  10. ^ Smith, Kirstine (1918). "Zu den Standardabweichungen angepasster und interpolierter Werte einer beobachteten Polynomfunktion und ihrer Konstanten sowie der Anleitung, die sie für eine ordnungsgemäße Wahl der Beobachtungsverteilung geben". Biometrika. 12 (1–2): 1–85. doi:10.1093/biomet/12.1-2.1.
  11. ^ Johnson, N.L. (1961). "Sequentielle Analyse: Eine Umfrage." Zeitschrift der Royal Statistical Society, Serie A. Vol. 124 (3), 372–411. (Seiten 375–376)
  12. ^ Wald, A. (1945) "Sequentielle Tests statistischer Hypothesen", Annalen der mathematischen Statistik, 16 (2), 117–186.
  13. ^ a b Herman Chernoff, Sequentielle Analyse und optimales Design, SIAM Monographie, 1972.
  14. ^ Zacks, S. (1996) "Adaptive Designs für parametrische Modelle". In: Ghosh, S. und Rao, C. R. (Hrsg.) (1996). "Design und Analyse von Experimenten", " Handbuch der Statistik, Band 13. Nordholland. ISBN0-444-82061-2. (Seiten 151–180)
  15. ^ Robbins, H. (1952). "Einige Aspekte des sequentiellen Designs von Experimenten". Bulletin der American Mathematical Society. 58 (5): 527–535. doi:10.1090/S0002-9904-1952-09620-8.
  16. ^ Miller, Geoffrey (2000). Der Paarungs Geist: Wie sexuelle Wahl die Entwicklung der menschlichen Natur geprägt hat, London: Heineman, ISBN0-434-00741-2 (auch Doubleday, ISBN0-385-49516-1) "Für Biologen war er Architektin der 'modernen Synthese', die mathematische Modelle zur Integration von Mendelschen Genetik in Darwins Selektionstheorien verwendete. Für Psychologen war Fisher der Erfinder verschiedener statistischer Tests, die immer noch angenommen werden, die angenommen werden Um in Psychologiejournalen zu verwenden, war Fisher der Gründer der experimentellen landwirtschaftlichen Forschung und rettete Millionen vor Hunger durch rationale Pflanzenzüchtungsprogramme. " S. 54.
  17. ^ Creswell, J.W. (2008), Bildungsforschung: Planung, Durchführung und Bewertung der quantitativen und qualitativen Forschung (3. Auflage), Upper Saddle River, NJ: Prentice Hall. 2008, p. 300. ISBN0-13-613550-1
  18. ^ Dr. Hani (2009). "Replikationsstudie". Archiviert von das Original am 2. Juni 2012. Abgerufen 27. Oktober 2011.
  19. ^ Burman, Leonard E.; Robert W. Reed; James Alm (2010), "Ein Aufruf für Replikationsstudien", Bewertung der öffentlichen Finanzen, 38 (6): 787–793, doi:10.1177/1091142110385210, S2CID 27838472, abgerufen 27. Oktober 2011
  20. ^ Hotelling, Harold (1944). "Einige Verbesserungen beim Wiegen und anderen experimentellen Techniken". Annalen der mathematischen Statistik. 15 (3): 297–306. doi:10.1214/AOMS/1177731236.
  21. ^ Giri, Narayan C.; Das, M. N. (1979). Design und Analyse von Experimenten. New York, NY: Wiley. S. 350–359. ISBN 9780852269145.
  22. ^ a b Jack Sifri (8. Dezember 2014). "So verwenden Sie das Design von Experimenten, um robuste Designs mit hohem Ertrag zu erstellen". youtube.com. Abgerufen 11. Februar 2015.
  23. ^ Simmons, Joseph; Leif Nelson; Uri Simonsohn (November 2011). "Falsch-positive Psychologie: Unbekannte Flexibilität bei der Datenerfassung und -analyse ermöglicht das Darstellen von irgendetwas als bedeutenden.". Psychologische Wissenschaft. 22 (11): 1359–1366. doi:10.1177/0956797611417632. ISSN 0956-7976. PMID 22006061.
  24. ^ "Wissenschaft, Vertrauen und Psychologie in der Krise". KPLU. 2. Juni 2014. archiviert von das Original am 14. Juli 2014. Abgerufen 12. Juni 2014.
  25. ^ "Warum statistisch signifikante Studien unbedeutend sein können". Pazifischer Standard. 4. Juni 2014. Abgerufen 12. Juni 2014.
  26. ^ Chris Chambers (10. Juni 2014). "Physics Envy: Halten die harten Wissenschaften die Lösung für die Replikationskrise in Psychologie?". theGuardian.com. Abgerufen 12. Juni 2014.
  27. ^ Aderberg & Hand (2008) "Beratung zu Forschungsmethoden: Der Begleiter eines Beraters"
  28. ^ Bisgaard, S (2008) "Muss ein Prozess in statistischer Kontrolle sein, bevor sie entworfene Experimente durchführen?", Qualitätstechnik, ASQ, 20 (2), S. 143–176
  29. ^ Giri, Narayan C.; Das, M. N. (1979). Design und Analyse von Experimenten. New York, NY: Wiley. S. 53, 159, 264. ISBN 9780852269145.
  30. ^ Montgomery, Douglas (2013). Design und Analyse von Experimenten (8. Aufl.). Hoboken, NJ: John Wiley & Sons, Inc. ISBN 9781118146927.
  31. ^ Walpole, Ronald E.; Myers, Raymond H.; Myers, Sharon L.; Ye, Keying (2007). Wahrscheinlichkeit und Statistik für Ingenieure und Wissenschaftler (8 ed.). Upper Saddle River, NJ: Pearson Prentice Hall. ISBN 978-0131877115.
  32. ^ Myers, Raymond H.; Montgomery, Douglas C.; Vining, G. Geoffrey; Robinson, Timothy J. (2010). Verallgemeinerte lineare Modelle: mit Anwendungen in Engineering und Wissenschaften (2 ed.). Hoboken, N.J.: Wiley. ISBN 978-0470454633.
  33. ^ Box, George E.P.; Hunter, William G.; Hunter, J. Stuart (1978). Statistiken für Experimentatoren: Eine Einführung in Design, Datenanalyse und Modellbildung. New York: Wiley. ISBN 978-0-471-09315-2.
  34. ^ Box, George E.P.; Hunter, William G.; Hunter, J. Stuart (2005). Statistiken für Experimentatoren: Design, Innovation und Entdeckung (2 ed.). Hoboken, N.J.: Wiley. ISBN 978-0471718130.
  35. ^ Spall, J. C. (2010). "Faktorielles Design für effizientes Experimentieren: Informationsdaten für die Systemidentifizierung generieren". IEEE Control Systems Magazine. 30 (5): 38–53. doi:10.1109/MCS.2010.937677. S2CID 45813198.
  36. ^ Pronzato, L (2008). "Optimales experimentelles Design und einige damit verbundene Kontrollprobleme". Automatik. 44 (2): 303–325. Arxiv:0802.4381. doi:10.1016/j.Automatica.2007.05.016. S2CID 1268930.
  37. ^ Moore, David S.; Notz, William I. (2006). Statistiken: Konzepte und Kontroversen (6. Aufl.). New York: W.H. Freeman. S. Kapitel 7: Datenethik. ISBN 9780716786368.
  38. ^ Ottoboni, M. Alice (1991). Die Dosis macht das Gift: eine einfachsprachige Anleitung zur Toxikologie (2. Aufl.). New York, NY: Van Nostrand Reinhold. ISBN 978-0442006600.
  39. ^ Glantz, Stanton A. (1992). Primer der Biostatistik (3. Aufl.). ISBN 978-0-07-023511-3.

Quellen

  • Peirce, C. S. (1877–1878), "Illustrationen der Logik der Wissenschaft" (Serie), Populärwissenschaft monatlich, Bd. 12–13. Relevante einzelne Papiere:
    • (1878 März), "Die Lehre der Chancen", Populärwissenschaft monatlich, v. 12, Märzausgabe, pp. 604–615. Internetarchiv Eprint.
    • (1878 April), "Die Wahrscheinlichkeit der Induktion", Populärwissenschaft monatlich, v. 12, pp. 705–718. Internetarchiv Eprint.
    • (1878 Juni), "Der Orden der Natur", Populärwissenschaft monatlich, v. 13, pp. 203–217.Internetarchiv Eprint.
    • (1878 August), "Abzug, Induktion und Hypothese", Populärwissenschaft monatlich, v. 13, pp. 470–482. Internetarchiv Eprint.
    • (1883), "Eine Theorie wahrscheinlicher Inferenz", Studien zur Logik, pp. 126–181, Little, Brown und Company. (Nachdruck 1983, John Benjamins Publishing Company, ISBN90-272-3271-7)

Externe Links