Warning: strpos(): Empty needle in /var/www/web27622465/html/html/andreasfitzthum/sibmmy/index.php on line 1
lineare regression unabhängige variable 0,05%. Die lineare Regression ist ein Verfahren aus der Statistik, welches den Zusammenhang zweier Variablen, einer unabhängigen und einer abhängigen, darstellt. Die multiple lineare Regression wird auch „mehrfache lineare Regression“ (kurz: MLR) oder „lineare Mehrfachregression“ genannt. Die einzelnen zu wählenden Regressionsmodelle unterscheiden sich in den jeweiligen Messniveaus der abhängigen bzw. Nov 2013, 10:51 . Einführung. Bei der linearen Regression wird dabei ein lineares Modell angenommen. des durchschnittlichen Verlaufs der Abhängigkeit eines metrisch skalierten Merkmals. Allerdings muss man bei kategorialen unabhängigen Variablen besonders aufpassen. Hallo, ich teste in meiner Arbeit, mithilfe der linearen Regression, ob bestimmte Variablen einen signifikanten Einfluss (Irrtumswahrscheinlichkeit 10 %) auf die abhängige Variable haben. x 1, x 2 und x 3, zur Bestimmung einer abhängigen Variablen y herangezogen, so spricht man von einer Mehrfach-oder multiplen Regression. Die unabhängige Variable ist die Variable, die von den anderen Variablen nicht geändert wird. Wenn du eine einfache lineare Regression rechnest, hast du eine metrische abhängige Variable und einen metrischen Faktor (= unabhängige Variable). Wenn beispielsweise die Darstellung von x gegen y eine parabolische Form hat, kann es sinnvoll sein, X 2 als zusätzliche unabhängige Variable im Modell hinzuzufügen. Ist die abhängige Variable nominal skaliert muss eine logistische Regression berechnet werden. Eine einfache lineare Regression mit Gewicht als der abhängigen und Größe als der erklärenden Variable ist signifikant, F (1,28) = 132,86, p < ,001. Es werden also nur solche Zusammenhänge herangezogen, bei denen die abhängige Variable eine … Einfache lineare Regressionsanalyse. Die unabhängigen Variablen, die du in die Regressionsanalyse einschließt, weisen keine lineare Beziehung auf. Exogenität: Der erwartete Wert des Fehlers ist 0. Homoskedastizität: Die Varianz des Fehlerwertes ist für alle Werte der erklärenden Variablen gleich. // Multiple lineare Regression in SPSS rechnen und interpretieren //War das Video hilfreich? Die logistische Regression berechnet die Möglichkeit eines Ereignisses. Lineare Regression, Logistische Regression, Maschinelles Lernen. Dies ist in der zugehörigen ANOVA-Statistik ersichtlich. Multiple lineare Regression. An ihm lässt sich der Beitrag der Einflussvariablen X für die Erklärung der Zielgröße Y ablesen. Mit "Lineare Regression" werden die Koeffizienten der linearen Gleichung unter Einbeziehung einer oder mehrerer unabhängiger Variablen geschätzt, die den Wert der abhängigen Variablen am besten vorhersagen. Man kann mehr als deine unabhängige Variable verwenden. Das Ziel der Regressionsanalyse besteht in einer Beschreibung der mittleren Tendenz bzw. Die multiple lineare Regressionsanalyse ähnelt im Wesentlichen dem einfachen linearen Modell, mit der Ausnahme, dass im Modell mehrere unabhängige Variablen verwendet werden. Bei der linearen Regression versuchst du die Werte einer Variablen mit Hilfe einer oder mehrerer anderer Variablen vorherzusagen. Es ist mit x bezeichnet. als Steigungen für die jeweiligen X-Variablen. Eine Regression basiert auf der Idee, dass eine abhängige Variable durch eine oder mehrere unabhängige Variablen bestimmt ist.. Wird angenommen, dass es einen kausalen Zusammenhang zwischen beiden Variablen gibt, beeinflusst der Wert der unabhängigen Variable den Wert der abhängigen Variable. Regressionsanalyse. Eine lineare Regression kann als unabhängige Variablen alle möglichen Skalenniveaus haben. Die lineare Regression schätzt die abhängige Variable, wenn sich die unabhängige Variable ändert. Gleichzeitig wird mittels der Likelihood-Ratio-Statistik geprüft, ob sich das Modell durch erneutes Hinzufügen einer Variablen verbessern würde. Als Ergebnis kam Sig. Auch dieses Modell beschreibst Du also als lineare … Asklepios Klinik Birkenwerder ärzte, Soko Potsdam Mediathek, Blitzknallsatz Herstellen, Hochbegabung Probleme Job, Hochbegabung Erklärung Für Kinder, Tomori Leistungsdaten, Berufsschule Berufskraftfahrer Rheinland-pfalz, " /> 0,05%. Die lineare Regression ist ein Verfahren aus der Statistik, welches den Zusammenhang zweier Variablen, einer unabhängigen und einer abhängigen, darstellt. Die multiple lineare Regression wird auch „mehrfache lineare Regression“ (kurz: MLR) oder „lineare Mehrfachregression“ genannt. Die einzelnen zu wählenden Regressionsmodelle unterscheiden sich in den jeweiligen Messniveaus der abhängigen bzw. Nov 2013, 10:51 . Einführung. Bei der linearen Regression wird dabei ein lineares Modell angenommen. des durchschnittlichen Verlaufs der Abhängigkeit eines metrisch skalierten Merkmals. Allerdings muss man bei kategorialen unabhängigen Variablen besonders aufpassen. Hallo, ich teste in meiner Arbeit, mithilfe der linearen Regression, ob bestimmte Variablen einen signifikanten Einfluss (Irrtumswahrscheinlichkeit 10 %) auf die abhängige Variable haben. x 1, x 2 und x 3, zur Bestimmung einer abhängigen Variablen y herangezogen, so spricht man von einer Mehrfach-oder multiplen Regression. Die unabhängige Variable ist die Variable, die von den anderen Variablen nicht geändert wird. Wenn du eine einfache lineare Regression rechnest, hast du eine metrische abhängige Variable und einen metrischen Faktor (= unabhängige Variable). Wenn beispielsweise die Darstellung von x gegen y eine parabolische Form hat, kann es sinnvoll sein, X 2 als zusätzliche unabhängige Variable im Modell hinzuzufügen. Ist die abhängige Variable nominal skaliert muss eine logistische Regression berechnet werden. Eine einfache lineare Regression mit Gewicht als der abhängigen und Größe als der erklärenden Variable ist signifikant, F (1,28) = 132,86, p < ,001. Es werden also nur solche Zusammenhänge herangezogen, bei denen die abhängige Variable eine … Einfache lineare Regressionsanalyse. Die unabhängigen Variablen, die du in die Regressionsanalyse einschließt, weisen keine lineare Beziehung auf. Exogenität: Der erwartete Wert des Fehlers ist 0. Homoskedastizität: Die Varianz des Fehlerwertes ist für alle Werte der erklärenden Variablen gleich. // Multiple lineare Regression in SPSS rechnen und interpretieren //War das Video hilfreich? Die logistische Regression berechnet die Möglichkeit eines Ereignisses. Lineare Regression, Logistische Regression, Maschinelles Lernen. Dies ist in der zugehörigen ANOVA-Statistik ersichtlich. Multiple lineare Regression. An ihm lässt sich der Beitrag der Einflussvariablen X für die Erklärung der Zielgröße Y ablesen. Mit "Lineare Regression" werden die Koeffizienten der linearen Gleichung unter Einbeziehung einer oder mehrerer unabhängiger Variablen geschätzt, die den Wert der abhängigen Variablen am besten vorhersagen. Man kann mehr als deine unabhängige Variable verwenden. Das Ziel der Regressionsanalyse besteht in einer Beschreibung der mittleren Tendenz bzw. Die multiple lineare Regressionsanalyse ähnelt im Wesentlichen dem einfachen linearen Modell, mit der Ausnahme, dass im Modell mehrere unabhängige Variablen verwendet werden. Bei der linearen Regression versuchst du die Werte einer Variablen mit Hilfe einer oder mehrerer anderer Variablen vorherzusagen. Es ist mit x bezeichnet. als Steigungen für die jeweiligen X-Variablen. Eine Regression basiert auf der Idee, dass eine abhängige Variable durch eine oder mehrere unabhängige Variablen bestimmt ist.. Wird angenommen, dass es einen kausalen Zusammenhang zwischen beiden Variablen gibt, beeinflusst der Wert der unabhängigen Variable den Wert der abhängigen Variable. Regressionsanalyse. Eine lineare Regression kann als unabhängige Variablen alle möglichen Skalenniveaus haben. Die lineare Regression schätzt die abhängige Variable, wenn sich die unabhängige Variable ändert. Gleichzeitig wird mittels der Likelihood-Ratio-Statistik geprüft, ob sich das Modell durch erneutes Hinzufügen einer Variablen verbessern würde. Als Ergebnis kam Sig. Auch dieses Modell beschreibst Du also als lineare … Asklepios Klinik Birkenwerder ärzte, Soko Potsdam Mediathek, Blitzknallsatz Herstellen, Hochbegabung Probleme Job, Hochbegabung Erklärung Für Kinder, Tomori Leistungsdaten, Berufsschule Berufskraftfahrer Rheinland-pfalz, " />
Select Page

Multiple Regression (SAV, 2 KB) 1. Y {\displaystyle Y\;} von ebenfalls metrisch skalierten Merkmalen. Annahme 2: Unabhängigkeit Erläuterung. von Rico34 » So 10. Einfache lineare Regression Einfache lineare Regression hilft, die lineare Beziehung zwischen zwei kontinuierlichen Variablen zu finden. Man spricht von einer linearen Regression, da der Zusammenhang zwischen abhängiger Variable und Prädiktoren durch eine lineare Funktion abgebildet wird (Linearkombination der … Habe die Residuen bei der linearen Regression als Variable (unter Speichern - nicht standardisierte Residuen) gespeichert und danach diese Variable anhand des Kolmogorov-Smirnov-Tests getestet. Die nächste Annahme der linearen Regression ist, dass die Residuen unabhängig sind. Die lineare Regressionsfunktion ist somit Absatzmenge = b 0 + b 1 ×Preis + b 2 ×Werbung Allerdings wird auch bei dieser Methode angenommen, dass die Zusammenhänge zwischen UV und AV linearer Natur sind. Ordinale Regression. Im Gegensatz zur einfachen linearen Regression, ermöglicht die multiple lineare Regression die Berücksichtigung von mehr als zwei unabhängigen Variablen. Das Ziel ist es, eine Variable auf der Basis von mehreren anderen Variablen zu schätzen. Die Variable, die geschätzt werden soll, wird dabei als abhängige Variable (Kriterium) bezeichnet. Das Standardverfahren der linearen Regressionsanalyse beinhaltet die Minimierung der Summe von quadrierten Differenzen zwischen einer Antwortvariablen (abhängig) und einer gewichteten Kombination von Prädiktorvariablen (unabhängig). Die Regressionsgleichung hierzu lautet: y=0+1∙x Anhand der obigen SPSS-Auswertung ist erkennbar, dass mit dem berechneten linearen Regressionsmodell eine unabhängige Variable (Symptomstärke) als signifikanter Prädiktor von Variable 1 identifiziert werden konnte. Beide sind zusammenhängend. Das lineare Regressionsmodell wird gewählt, wenn davon ausgegangen werden kann, dass ein linearer Zusammenhang zwischen der/den unabhängige/n Variable/n und der abhängigen Variable besteht. Die multiple Regressionsanalyse testet, ob ein Zusammenhang zwischen mehreren unabhängigen und einer abhängigen Variable besteht. Die lineare Regression ist ein Spezialfall der Regressionsanalyse, also ein statistisches Verfahren, mit dem versucht wird, eine beobachtete abhängige Variable durch eine oder mehrere unabhängige Variablen zu erklären. Die unabhängige Variable liegt im X-Bereich. Aufruf der linearen Regression in SPSS version 25. Ich habe also eine abhängige Variable Y und mehrere unabhängige Variablen X1, X2, etc. Recht einfach, wie ich in diesem Artikel zeigen werde. Je nachdem, ob es eine oder mehrere unabhängige Variablen gibt, wird zwischen der einfachen und der multiplen linearen Regressionsanalyse unterschieden. Dann habe ich verschiedene Regressionskoeffizienten: b0 ist der "Interzept", und dann jeweils b1, b2, etc. Ich finde nirgends die Formel zur berechnen von z.B. Mit dieser grundlegenden Regressionsanalyse wird ein linearer Zusammenhang zwischen zwei Variablen modelliert. Die ordinale Regression umfasst Modelle, deren Zielvariable ordinal skaliert ist, d.h. es liegt eine kategoriale Variable vor deren Ausprägungen eine Rangordnung vorweisen, z.B. Die lineare Regression ermittelt die Beziehung zwischen unabhängigen und abhängigen Variablen. Die Variablen, die zur Vorhersage genutzt werden, werden als Prädiktoren oder als unabhängige Variablen bezeichnet. Lineare Regression y=a+bx+e Gabriele Doblhammer, Fortgeschrittene Methoden der empirischen Sozialforschung, SS2004 unpräzise lineare Beziehung a..Intercept: unbekannt b..Anstieg: unbekannt y..abhängige Variable: bekannt x..unabhängige Variable: bekannt e.. Residuen:unbekannt Gesucht werden die Koeffizienten a und b, die zu einer Regressions- Lineare Regression: Grundlagen Die lineare Regression ist ein asymmetrisches Verfahren, d.h. eine Variable wird als abhängig definiert und durch eine oder mehrere unabhängige Variable erklärt Die lineare Regression basiert darauf, die beobachteten Werte, die im Streudiagramm dargestellt wurden, möglichst gut durch ein statistisches Die Variablen sind im linearen Regressionsmodell metrisch; kategorische Variablen können durch Dummy-Coding passend gemacht werden. Man spricht von einer linearen Regression, da der Zusammenhang zwischen abhängiger Variable und Prädiktoren durch eine lineare Funktion abgebildet wird (Linearkombination der Koeffizienten). 82,6% der Varianz von Gewicht kann mit der Variable Größe erklärt werden. Was genau zu beachten ist, zeige ich in diesem Artikel. Lineare Regression liefert nicht nur die Signifikanz (p), sondern auch den model fit (r²) und die durchschnittliche Änderung pro Einheit (Beta) Sie eignet sich für Vorhersagen. Im Unterschied zur einfachen linearen Regression, bei der Du nur eine unabhängige Variable (UV) untersuchen kannst, modelliert die multiple lineare Regression die Einflüsse mehrerer UVs auf eine abhängige Variable (AV). Schulnoten („1“, „2“, „3“, …,“6“), Ausprägung einer … Dies ist ein wichtiger Unterschied zwischen linearer Regression und logistischer Regression. Im einfachen linearen Regressionsmodell erkennt man einen linearen Zusammenhang dadurch, dass durch die Punktewolke der paarweisen Messergebnisse im Scatterplot (Streudiagramm) gut … "Regressieren" steht für das Zurückgehen von der abhängigen Variable y auf die unabhängigen Variablen x k. Daher wird auch von "Regression von y auf x" gesprochen. Immer wieder bekomme ich Fragen, wie eine lineare Regression mit binären Variablen (auch dichotom genannt) funktioniert. ... Als abhängige Variable übergibt man die Messwerte am Studienende. Werden mehrere unabhängige Variablen, z.B. X 1 … S & P 500 gibt Daten zurück und füllt Spalte 2 als unabhängige Variable. Die Variable, die vorhergesagt werden soll, wird Kriterium oder abhängige Variable genannt. Es verwendet eine unabhängige Variable, um eine abhängige Variable vorherzusagen, indem eine beste lineare Beziehung angepasst wird. Die einzelnen zu wählenden Regressionsmodelle unterscheiden sich in den jeweiligen Messniveaus der abhängigen bzw. Dummy-Codierung unabhängiger dichotomer Variablen Es soll untersucht werden, welchen Einfluss neben dem Preis das Schalten einer Werbung auf den monatlichen Absatz besitzt. Sie ist ein regressionsanalytisches Verfahren und ein Spezialfall der linearen Regression. Schritt für Schritt werden unabhängige Variablen aus dem Modell entfernt, wobei mit derjenigen gestartet wird, welche den geringsten Zusammenhang zur abhängigen Variable aufweist. Modellannahmen der linearen Regression ... • eine erklärende Variable darf sich nicht als lineare Funktion der anderen erklärenden Variablen darstellen lassen, ... dann meist infolge des Fehlers, dass man dieselbe Einflussgröße zweimal als unabhängige Variable in das Regressionsmodell aufgenommen hat Alternative Bezeichnungen sind zu erklärende Variable oder Regressand.Im Rahmen einer Regression möchte man den Einfluss der unabhängigen Variable auf … Für die Kriteriumsvariable (abhängige Variable) ist es relativ einfach: Bei einer linearen Regression muss diese Variable kontinuierlich und metrisch sein (mindestens intervallskaliert). 0,205 bzw. unabhängigen Variablen: Lineare Regression SPSS – sie berücksichtigt eine metrisch (kardinal) skalierte abhängige und eine (zumeist) metrisch skalierte (erklärende) unabhängige Variable Dabei werden die aufgenommen Datenpunkte zu den einzelnen Variablen in ein Diagramm eingetragen … Als unabhängige Variable wird die Haarlängen zu Beginn der Studie ausgewählt. Mithilfe der linearen Regressionsanalyse wird ein Modell erstellt, dass die Beziehung zwischen einer abhängigen Variable und einer oder mehreren unabhängigen Variablen beschreibt. Wie wir schon im Kapitel 1 besprochen haben, wird die Vorhersagevariable als unabhängige Variable (UV) oder Prädiktorvariable bezeichnet; die Variable, die vorhergesagt werden soll, als abhängige Variable (AV) oder Kriteriumsvariable.Im Folgenden werden wir uns mit der Regressionsgleichung der bivariaten Regression beschäftigen, also für den Fall mit … b2. Die multiple lineare Regression stellt eine Verallgemeinerung der einfachen linearen Regression dar. Einige Beispielfragestellungen der Regression könnten wie folgt lauten: Im Rahmen der linearen Regressionsanalyse wird also -grafisch ausgedrückt- eine Gerade in das Streudiagramm eingezeichnet. Um diese Gerade zu bestimmen greift die lineare Regression auf die Methode der kleinsten Quadrate zurück. Die Regressionsgerade kann durch folgende Gleichung beschrieben werden: Die Multiple lineare Regression ist ein statistisches Verfahren, mit dem versucht wird, eine beobachtete abhängige Variable durch mehrere unabhängige Variablen zu erklären. Y - Abhängige Variable; X - Unabhängige (erklärende) Variable; a - Abfangen; b - Steigung; ϵ - Rest (Fehler) Regressionsanalyse - Multiple lineare Regression. Eine Variable ist dabei unabhängig, sprich, ihr Wert kann beliebig verändert werden, wohingegen die zweite Variable von der ersten abhängig ist. Auf den Einfluss dieser unabhängigen Variablen reagiert die abhängige Variable und wird daher auch gerne als Reaktionsvariable bezeichnet. lineare Regression unabhängige Variablen logarithmieren. Die abhängige Variable wird durch eine oder mehrere unabhängige Variablen erklärt. Angesichts der S & P 500 zurückkehrt, sagen wir wissen wollen, ob wir die Kraft und die Beziehung von Visa (schätzen Lager zurückkehrt. Wenn die abhängige Variable nur von einer unabhängigen Variablen beschrieben wird, so spricht man von einer einfachen linearen Regression, wird sie von mehreren unabhängigen Variablen beschrieben, handelt es sich um eine multiple lineare Regression. Die lineare Regression kann in einfachster Form als beschreibendes, … Eine lineare Regression kann alle möglichen Skalenniveaus für die unabhängigen Variablen haben. Die Daten der Visa (V) -Bestandsrückgabe füllen Spalte 1 als abhängige Variable aus. 5.1 Die Regressionsgleichung. Die lineare Regression leicht und verständlich erklärt: lineare Regression Vorraussetzungen SPSS Streudiagramm. Das bedeutet, dass die Abstände zwischen den einzelnen Stufen der Variable gleichen Abständen in … Es geht um eine multiple lineare Regression. Was ist lineare Regression? Im Ergebnis der Regression bekommst du dann den Regressionskoeffizienten (b) dieses Faktors. Lineare Regression lässt sich auch anwenden, wenn Kausalität nicht definitiv angenommen werden kann. 20,5% > 0,05%. Die lineare Regression ist ein Verfahren aus der Statistik, welches den Zusammenhang zweier Variablen, einer unabhängigen und einer abhängigen, darstellt. Die multiple lineare Regression wird auch „mehrfache lineare Regression“ (kurz: MLR) oder „lineare Mehrfachregression“ genannt. Die einzelnen zu wählenden Regressionsmodelle unterscheiden sich in den jeweiligen Messniveaus der abhängigen bzw. Nov 2013, 10:51 . Einführung. Bei der linearen Regression wird dabei ein lineares Modell angenommen. des durchschnittlichen Verlaufs der Abhängigkeit eines metrisch skalierten Merkmals. Allerdings muss man bei kategorialen unabhängigen Variablen besonders aufpassen. Hallo, ich teste in meiner Arbeit, mithilfe der linearen Regression, ob bestimmte Variablen einen signifikanten Einfluss (Irrtumswahrscheinlichkeit 10 %) auf die abhängige Variable haben. x 1, x 2 und x 3, zur Bestimmung einer abhängigen Variablen y herangezogen, so spricht man von einer Mehrfach-oder multiplen Regression. Die unabhängige Variable ist die Variable, die von den anderen Variablen nicht geändert wird. Wenn du eine einfache lineare Regression rechnest, hast du eine metrische abhängige Variable und einen metrischen Faktor (= unabhängige Variable). Wenn beispielsweise die Darstellung von x gegen y eine parabolische Form hat, kann es sinnvoll sein, X 2 als zusätzliche unabhängige Variable im Modell hinzuzufügen. Ist die abhängige Variable nominal skaliert muss eine logistische Regression berechnet werden. Eine einfache lineare Regression mit Gewicht als der abhängigen und Größe als der erklärenden Variable ist signifikant, F (1,28) = 132,86, p < ,001. Es werden also nur solche Zusammenhänge herangezogen, bei denen die abhängige Variable eine … Einfache lineare Regressionsanalyse. Die unabhängigen Variablen, die du in die Regressionsanalyse einschließt, weisen keine lineare Beziehung auf. Exogenität: Der erwartete Wert des Fehlers ist 0. Homoskedastizität: Die Varianz des Fehlerwertes ist für alle Werte der erklärenden Variablen gleich. // Multiple lineare Regression in SPSS rechnen und interpretieren //War das Video hilfreich? Die logistische Regression berechnet die Möglichkeit eines Ereignisses. Lineare Regression, Logistische Regression, Maschinelles Lernen. Dies ist in der zugehörigen ANOVA-Statistik ersichtlich. Multiple lineare Regression. An ihm lässt sich der Beitrag der Einflussvariablen X für die Erklärung der Zielgröße Y ablesen. Mit "Lineare Regression" werden die Koeffizienten der linearen Gleichung unter Einbeziehung einer oder mehrerer unabhängiger Variablen geschätzt, die den Wert der abhängigen Variablen am besten vorhersagen. Man kann mehr als deine unabhängige Variable verwenden. Das Ziel der Regressionsanalyse besteht in einer Beschreibung der mittleren Tendenz bzw. Die multiple lineare Regressionsanalyse ähnelt im Wesentlichen dem einfachen linearen Modell, mit der Ausnahme, dass im Modell mehrere unabhängige Variablen verwendet werden. Bei der linearen Regression versuchst du die Werte einer Variablen mit Hilfe einer oder mehrerer anderer Variablen vorherzusagen. Es ist mit x bezeichnet. als Steigungen für die jeweiligen X-Variablen. Eine Regression basiert auf der Idee, dass eine abhängige Variable durch eine oder mehrere unabhängige Variablen bestimmt ist.. Wird angenommen, dass es einen kausalen Zusammenhang zwischen beiden Variablen gibt, beeinflusst der Wert der unabhängigen Variable den Wert der abhängigen Variable. Regressionsanalyse. Eine lineare Regression kann als unabhängige Variablen alle möglichen Skalenniveaus haben. Die lineare Regression schätzt die abhängige Variable, wenn sich die unabhängige Variable ändert. Gleichzeitig wird mittels der Likelihood-Ratio-Statistik geprüft, ob sich das Modell durch erneutes Hinzufügen einer Variablen verbessern würde. Als Ergebnis kam Sig. Auch dieses Modell beschreibst Du also als lineare …

Asklepios Klinik Birkenwerder ärzte, Soko Potsdam Mediathek, Blitzknallsatz Herstellen, Hochbegabung Probleme Job, Hochbegabung Erklärung Für Kinder, Tomori Leistungsdaten, Berufsschule Berufskraftfahrer Rheinland-pfalz,