Sie sind hier
E-Book

Methodik der empirischen Forschung

AutorAchim Walter, Daniel Klapper, Joachim Wolf, Sönke Albers, Udo Konradt
VerlagGabler Verlag
Erscheinungsjahr2007
Seitenanzahl447 Seiten
ISBN9783834991218
FormatPDF
KopierschutzDRM
GerätePC/MAC/eReader/Tablet
Preis29,99 EUR
Die Autoren führen in 28 Beiträgen Wissen aus einem breiten Spektrum von selbst durchgeführten Projekten und aus Erkenntnissen der Literatur zusammen. Hier werden die Erfahrungen der empirischen Arbeit von zwei Graduiertenkollegs an der Universität zu Kiel ausgewertet. Durch eine sorgfältige Begutachtung haben die Herausgeber ihre methodische Erfahrung einfließen lassen. Jeder Beitrag ist so aufgebaut, dass ein Überblick über die jeweilige Fragestellung gegeben und weiterführende Literatur bereitgestellt wird.

Prof. Dr. Sönke Albers, Prof. Dr. Udo Konradt, Prof. Dr. Achim Walter und Prof. Dr. Joachim Wolf lehren am Institut für Betriebswirtschaftslehre und am Institut für Psychologie der Christian Albrechts-Universität zu Kiel.
Prof. Dr. Daniel Klapper ist Inhaber des Lehrstuhls für Konsumgütermarketing an der Johann Wolfgang Goethe-Universität Frankfurt/Main.

Kaufen Sie hier:

Horizontale Tabs

Leseprobe
Messen und Skalieren von Sachverhalten (S. 65-66)

Bert Greving

Einleitung

In der Umgangssprache wird immer dann vom Messen gesprochen, wenn ein unbekannter Gegenstand mit einem bekannten Gegenstand, dem Messinstrument, verglichen wird. Allgemein bekannte Messinstrumente sind beispielsweise Waagen, Uhren, Lineale oder auch „Radarfallen". Im vorliegenden Artikel befindet sich eine kurze Einführung zum Begriff und Prozess des Messens aus der Perspektive eines Sozialwissenschaftlers. Daran anschließend werden im Hauptteil des Beitrags mit Rating-Skalen und dem Skalierungsverfahren nach Likert repräsentative Skalierungsverfahren vorgestellt. Hiermit werden dem Leser wichtige Grundlagen für die Konstruktion eines Messinstrumentes einer empirisch quantitativen Erhebung vermittelt.

Messtheoretische Grundlage

Unter einer „quantitativen" Erhebung versteht der Sozialwissenschaftler den Versuch, Merkmale und deren Ausprägungen, wie beispielsweise Meinungen von Personen zu bestimmten Themen, durch eine Messung (Quantifizierung) zu erfassen (Schumann 1997, S. 1). Hierbei besteht die Messung aus einer Zuordnung eines Symbols, im Regelfall ist dieses eine reelle Zahl, zu Merkmalen oder Eigenschaften von Objekten, bzw. Personen. Wichtig ist, dass bestehende Relationen sich in der Abbildung durch die Symbole widerspiegeln. Unter Relationen sind Beziehungen zwischen den Objekten oder Personen zu verstehen (zu den verschiedenen Arten von Relationen siehe Stier 1999, S. 36 ff.). Man spricht vom empirischen Relativ, den beobachteten Merkmalen und ihren Ausprägungen, das strukturtreu (mit Berücksichtigung der verschiedenen Relationen) in ein numerisches Relativ, die zugeordneten reellen Zahlen, abgebildet wird (Stier 1999, S. 36). Strukturtreue Abbildungen werden auch als Morphismen bezeichnet. In den meisten Fällen einer strukturtreuen Abbildung liegt eine homomorphe Abbildung vor. Diese spiegelt das empirische Relativ im numerischen Relativ wider. Lässt dass numerische Relativ wiederum zu, auf das empirische Relativ zurück zu schließen, liegt eine isomorphe Abbildung vor. In der Messtheorie wird schon bei Vorliegen eines numerischen Relativs, das strukturtreu ein empirisches Relativ abbildet, von einer Skala gesprochen. Im Zusammenhang mit Skalen der Messtheorie sind drei grundlegende Probleme zu beachten: Die bereits angesprochene Problematik der Strukturtreue wird unter dem Begriff Repräsentationsproblematik subsumiert (Diekmann 1995, S. 247 f.). Hinter der Frage, welche Relationen im speziellen Fall abgebildet werden müssen, d.h. welche Morphismen vorliegen sollten, verbirgt sich das Eindeutigkeitsproblem.

Mit der Beantwortung dieser Frage nach den vorhandenen Relationen, wird das Skalenniveau (Messniveau, siehe den Beitrag von Riesenhuber zur Großzahligen empirischen Forschung in diesem Buch) der zu erhebenden Daten determiniert. Von eher praktischer Natur ist das Bedeutsamkeitsproblem. Hier steht im Gegensatz zu den beiden anderen Problemen nicht die Erhebung der Messwerte im Vordergrund, sondern die Frage, welche Auswertungsverfahren zulässig sind (Stier 1999, S. 40 f.). Das Problem ist somit eng verknüpft mit dem Eindeutigkeitsproblem, da die Zulässigkeit von Auswertungsverfahren abhängig ist vom Skalenniveau.

Hinsichtlich der Verwendung des Begriffs Skala ist Vorsicht geboten, da in den Sozialwissenschaften und auch im folgenden Artikel der Begriff Skala zudem in zwei weiteren Definitionsvarianten Gebrauch findet. So werden des Weiteren unter Skalen gebundene Antwortformate einer Erhebung verstanden. Rating-Skalen stellen ein solches gebundenes Antwortformat dar. Der größte Vorteil gebundener Formate besteht in ihrer ökonomischen Auswertbarkeit, die sie für den Einsatz in Massenuntersuchungen prädestiniert (Rost 2004, S. 61). Außerdem werden nach bestimmten Verfahren erstellte Frageblöcke, so genannte Itembatterien, als Skalen bezeichnet. Das im Folgenden vorgestellte Likert-Verfahren ist ein Beispiel für ein Skalierungsverfahren zum Erstellen von Itembatterien (Schumann 1997, S. 20).
Blick ins Buch
Inhaltsverzeichnis
Vorwort zur 2. Auflage5
Vorwort zur 1. Auflage5
Inhaltsverzeichnis9
Abbildungsverzeichnis11
Tabellenverzeichnis15
Großzahlige empirische Forschung18
1 Zusammenfassung18
2 Der kritische Rationalismus als Grundlage empirischer Forschung18
3 Ablauf eines Forschungsprojekts20
3.1 Definition des Problemfeldes, Zieldefinition und Forschungsfrage21
3.2 Auswahl der Forschungsmethode und Art der Ergebnisse22
4 Grundbegriffe großzahliger empirischer Forschung25
5 Fazit32
Literatur32
Experimente34
1 Das Experiment in der wissenschaftlichen Forschung34
2 Grundkonzepte wissenschaftlichen Experimentierens35
2.1 Definition und Abgrenzung zu weiteren empirischen Untersuchungen35
2.2 Variablenbeziehungen in einem Experiment36
3 Versuchspläne37
3.1 Nicht-experimentelle Versuchspläne37
3.2 Quasi-experimentelle Versuchspläne38
3.3 Experimentelle Versuchspläne39
4 Gütekriterien eines Experiments44
4.1 Interne und externe Validität eines Experiments44
4.2 Probleme und Störeffekte des Experimentierens45
4.3 Methoden zur versuchsplanerischen Kontrolle von Störeffekten46
5 Experimente in der wirtschaftswissenschaftlichen Forschung47
6 Abschließende Bewertung des Experimentierens48
7 Literatur48
Erkenntnisgewinnung durch Fallstudien50
1 Problemstellung50
2 Definition und Einordnung von Fallstudien als Forschungsansatz51
3 Planung des Forschungsprozesses und Fallstudiendesign53
4 Methoden der Datenerhebung54
4.1 Das Experteninterview als ein forschungsmethodischer Ansatz der Befragung55
4.2 Die Beobachtung57
4.3 Sammlung von Dokumenten und Inhaltsanalyse59
5 Datenanalyse und Fallstudienerstellung60
6 Gütekriterien des Forschungsprozesses61
7 Schlussbetrachtung63
Literatur64
Verfahren der Datenerhebung66
1 Einleitung66
2 Erhebungsmethoden im Überblick66
3 Erhebungsmethoden von Primärdaten68
3.1 Befragung68
3.2 Beobachtung73
3.3 Experiment vs. Nicht-Experiment74
4 Panel77
5 Zusammenfassung79
Literatur79
Messen und Skalieren von Sachverhalten82
1 Einleitung82
2 Messtheoretische Grundlage82
3 Skalierungsverfahren83
3.1 Rating-Skalen84
3.2 Likert-Skalen90
4 Fazit94
5 Literatur94
Möglichkeiten der Stichprobenbildung96
1 Notwendigkeit von Stichproben96
2 Repräsentativität einer Stichprobe97
3 Verfahren der Stichprobenauswahl im Überblick97
3.1 Nichtzufällige Auswahlverfahren98
3.2 Zufällige Auswahlverfahren100
3.3 Schätzung des Mittelwerts der Grundgesamtheit und Bestimmung des Stichprobenumfangs102
4 Zusammenfassung104
Literatur104
Subjektive versus objektive Erfolgsmaße106
1 Einleitung106
2 Grundlagen der Erfolgsmessung107
3 Bestimmung des Messbereichs der Erfolgsmessung108
4 Alternative Ansätze zur Messung von Erfolg109
5 Subjektive und/oder objektive Erfolgsmaße? Überlegungen zur Auswahl111
5.1 Messtheoretische Probleme: Kriteriumsvalidität111
5.2 Messtheoretische Probleme: Kriteriumsstabilität112
5.3 Messpraktische Überlegungen114
6 Empirische Untersuchungen zur Äquivalenz subjektiver und objektiver Erfolgsmaße115
6.1 Empirische Untersuchungen auf der Unternehmens- und Geschäftsbereichsebene115
6.2 Empirische Untersuchungen auf der individuellen Analyseebene116
7 Schlussfolgerung117
Literatur118
Die Erfassung latenter Konstrukte mit Hilfe formativer und reflektiver Messmodelle120
1 Problemstellung120
2 Charakteristika reflektiver Messmodelle121
3 Charakteristika formativer Messmodelle122
4 Multidimensionale formative und reflektive Konstrukte123
5 Einbindung formativer Konstrukte in Strukturgleichungsmodelle125
6 Indexentwicklung zur Operationalisierung formativer Konstrukte125
Schritt 1: Definition des Konstrukts126
Schritt 2: Bestimmung der Indikatoren128
Schritt 3: Behandlung von Multikollinearität128
Schritt 4: Schätzung des Messmodells129
Schritt 5: Indexberechnung131
7 Fehlerhafte Messmodellannahmen und ihre Folgen131
Literatur133
Zum Umgang mit fehlenden Daten in großzahligen empirischen Erhebungen136
1 Problemstellung136
2 Charakterisierung fehlender Daten136
2.1 Formen der Nichtantwort und ihre Ursachen136
2.2 Fehlendmechanismen und ihre Konsequenzen137
2.3 Fehlendmuster138
2.4 Quantifizierung des Datenausfalls139
3 Verfahren zur Behandlung fehlender Daten140
3.1 Verfahren der Fallreduktion140
3.2 Sample-Selection-Modelle141
3.3 Gewichtungsverfahren141
3.4 Imputationsverfahren141
3.5 Einfache vs. Multiple Imputation145
4 Literaturüberblick und Evaluation verschiedener Verfahren145
5 Überblick über Softwareanwendungen zur Behandlung fehlender Daten148
6 Ausblick und Schlussfolgerungen148
7 Literatur149
8 Internetquellen (Stand: November 2005)151
Common Method Variance und Single Source Bias152
1 Einleitung152
2 Inhaltliche Gegenstandsbestimmung152
2.1 Systematisierung relevanter Messfehler152
2.2 Begriffsdefinition „Common Method Variance“154
2.3 Bedeutung von CMV154
2.4 Status Quo und Intention des Beitrags155
3 Differenzierung verschiedener Quellen von CMV155
4 Umgang mit Common Method Variance157
4.1 Messung von CMV mit Hilfe von Harmann’s-One-Factor-Test157
4.2 Maßnahmen zur Eliminierung der Quellen von CMV157
4.3 Statistische Maßnahmen zum Umgang mit CMV160
5 Kritische Anmerkungen zur Diskussion um CMV163
5.1 Verzerrungen durch Eigenbeurteilungen163
5.2 Für CMV potentiell anfällige Variablen163
5.3 Korrelationen bei Erhebungen mit einzelnen oder mehreren Methoden165
6 Zusammenfassung: Empfohlener Umgang mit CMV165
Literatur166
Logik und Kritik des Hypothesentestens168
1 Einleitung168
2 Allgemeine Durchführung von Hypothesentests169
2.1 Herleitung von Hypothesen169
2.2 Mögliche Fehlentscheidungen beim Hypothesentesten170
2.3 Alpha-Fehler170
2.4 Beta-Fehler172
3 Kritik am Hypothesentesten174
3.1 Die Nullhypothese ist immer falsch174
3.2 Fehlerhafte Logik beim Nullhypothesen-Signifikanztest175
3.3 Unterschätzen des Beta-Fehlers177
4 Verbesserungen179
4.1 Effektgrößen180
4.2 Konfidenzintervalle180
4.3 Power-Analyse181
5 Schlussbemerkung182
Literatur182
Fuzzy Clustering mit Hilfe von Mixture Models184
1 Problemstellung184
2 Methoden der Clusteranalyse185
3 Mixture Models187
3.1 Modellansatz187
)189
(189
3.3 Expectation-Maximization (EM)-Algorithmus190
3.4 Einschränkungen des EM-Algorithmus191
3.5 Gütemaße zur Bestimmung der Cluster-Anzahl191
4 Durchführung einer Segmentierungsrechnung193
4.1 Allgemeines Vorgehen einer Segmentierungsrechnung193
4.2 Anwendung der Mixture Models mit Hilfe des Softwarepakets Glimmix194
5 Fazit198
Literatur198
Nachweis und Behandlung von Multikollinearität200
1 Einleitung200
2 Begriffsklärung und Ursachen von Multikollinearität200
3 Verfahren zum Nachweis von Multikollinearität202
3.1 Konventionelle Verfahren202
3.2 Numerische Verfahren205
3.3 Idealtypische Vorgehensweise208
4 Verfahren zur Verringerung von Multikollinearität208
4.1 Konventionelle Verfahren zur Verringerung von Multikollinearität208
4.2 Verzerrende Schätzmethoden zur Verringerung von Multikollinearität210
5 Zusammenfassung und Fazit213
Literatur214
Logistische und Ordinale Regression216
1 Einleitung und Problemstellung216
2 Logistische Regression (nominal abhängige Variablen)216
2.1 Binär-logistische Regression216
2.2 Multinomial logistische Regression223
3 Ordinale Regression228
3.1 Grundgedanken228
3.2 Schätzung der Regressionskoeffizienten229
3.3 Güte des Regressionsmodells229
3.4 Interpretation der Regressionskoeffizienten230
4 Zusammenfassung231
Literatur231
1 Einleitung232
2 Charakteristika eines Mehrgleichungsmodells232
2.1 Bestandteile ökonometrischer Mehrgleichungsmodelle233
2.2 Notierung und Annahmen eines Mehrgleichungsmodells233
2.3 Das Identifikationsproblem bei Mehrgleichungsmodellen236
3 Parameterschätzung in Mehrgleichungsmodellen237
3.1 Scheinbar unverbundene Modellgleichungen (SUR)239
3.2 Das Interdependente Modell240
4 Beurteilung der Mehrgleichungsmodelle244
Literatur246
Endogenität und Instrumentenschätzer248
1 Einleitung248
2 Was ist Endogenität?248
2.1 Grundsätzliches Konzept248
2.2 Gründe für das Auftreten endogener Variablen249
,251
3 Wie kann Endogenität diagnostiziert werden?252
3.1 Hausman-Test252
3.2 Residuentest zum Test einzelner Variablen252
4 Wie kann Endogenität im Modell berücksichtigt werden?253
4.1 Korrektur der Modellspezifikation253
4.2 Verwenden von Proxy-Variablen254
4.3 Schätzung mit Instrumentvariablen255
,256
,256
'256
4.4 Paneldaten und Endogenität258
5 Zusammenfassung und weiterführende Hinweise260
Literatur260
Moderatoren und Mediatoren in Regressionen262
1 Einleitung262
1.1 Übersicht262
1.2 Moderatoren und Mediatoren in Regressionen262
2 Moderatoranalyse262
2.1 Moderatoren: Definition, Darstellung und Beispiel262
2.5 Graphische Darstellung268
Prinzipien der Panelanalyse278
1 Einleitung278
2 Grundlagen der Panelanalyse279
2.1 Charakteristika von Paneldaten279
2.2 Fixed-Effects-Modell (Kovarianzmodell)282
2.3 Random-Effects-Modell (Fehlerkomponentenmodell)283
3 Weiterführende Aspekte der Panelanalyse285
3.1 Testen von Modellannahmen285
ˆ285
ˆ285
ˆ285
ˆ285
ˆ285
ˆ285
3.2 Vorgehen bei Autokorrelation und Heteroskedastizität286
3.3 Modelle mit verzögerten endogenen Variablen (dynamische Modelle)287
4 Ein Anwendungsbeispiel289
5 Zusammenfassung und Ausblick292
Literatur293
Eine anwendungsbezogene Einführung in die Hierarchische Lineare Modellierung ( HLM)294
1 Einführung294
Hazard-Raten-Modelle310
1 Einführung310
2 Methodik von Hazard-Raten-Modellen310
2.1 Datenbasis für Hazard-Raten-Modelle311
2.2 Systematisierung312
2.3 Nicht-parametrische Ansätze312
2.4 Berücksichtigung von Kovariableneinflüssen314
3 Unbeobachtete Heterogenität innerhalb und außerhalb des Beobachtungszeitraums322
3.1 Unbeobachtete Heterogenität322
3.2 Split-Hazard-Raten-Modelle323
4 Auswahl von Hazard-Raten-Modellen324
4.1 Test zur Proportionalitätsannahme im Cox-Modell324
4.2 Ermittlung geeigneter Verteilungsannahmen324
5 Software325
6 Fazit325
Literaturverzeichnis326
Analyse kausaler Wirkungszusammenhänge mit Hilfe von Partial Least Squares ( PLS)328
1 Einleitung und Übersicht328
1.1 Defizite bei der Schätzung von Strukturgleichungsmodellen328
2 Darstellung des Partial-Least-Squares-Ansatzes (PLS)329
3 Wahl der geeigneten Schätzmethode: PLS vs. LISREL333
4 Durchführung einer Datenanalyse mit PLS335
4.1 Vorbereitende Analysen335
4.2 Analyse mit PLS338
5 Fazit341
Literatur342
Discrete-Choice-Modelle344
1 Einleitung344
2 Grundlagen der Discrete-Choice-Theorie344
3 Das MNL-Modell als Standardmodell346
3.1 Formale Darstellung346
3.2 Die Parameterschätzung346
3.3 Beschränkungen des MNL-Modells347
4 Neuere Entwicklungen348
4.1 Das Nested-Logit-Modell349
4.2 Das Latent-Class-Modell350
4.3 Das Mixed-Logit-Modell351
4.4 Das Normal-Component-Mixture-Modell354
5 Ein Anwendungsbeispiel355
6 Softwareüberblick357
Literatur358
Simultane Schätzung von Choice- Modellen und Segmentierung360
1 Problemstellung360
2 Statistische Grundlagen360
2.1 Mischverteilungsidee360
2.2 Schätzung von Mischverteilungen364
2.3 Bestimmung der Segmentanzahl365
3 Choice-Modelle mit Berücksichtigung von Heterogenität366
3.1 Binominal/Bernoulli-Logit-Modell366
3.2 Multinominal-Logit-Modell und Verallgemeinerungen368
4 Anwendungsbeispiel369
4.1 Modellierung369
4.2 Schätzung in EXCEL371
4.3 Ergebnisse372
Literatur374
Die Persistenzmodellierung als Methode zur Schätzung von langfristigen Marketingwirkungen376
1 Einleitung376
2 Die Wirkungen einzelner Marketingmaßnahmen376
3 Die Methode der Persistenzmodellierung378
3.1 Definitionen und Grundlagen378
3.2 Step 1: Klassifikation der Zeitreihen381
3.3 Step 2: Modellspezifikation383
3.4 Step 3: Modellinterpretation384
4 Ein Anwendungsbeispiel386
5 Zusammenfassung390
Literatur391
Gütekriterien der Messung: Reliabilität, Validität und Generalisierbarkeit392
1 Einleitung392
2 Reliabilität393
2.1 Definition393
2.2 Formen der Reliabilitätsprüfung394
3 Validität398
3.1 Definition398
3.2 Formen der Validitätsprüfung398
4 Generalisierbarkeit403
4.1 Definition403
4.2 Generalisierbarkeitsprüfung404
5 Zusammenfassung und Ausblick406
Literatur406
Bootstrapping und andere Resampling- Methoden408
1 Einführung408
2 Randomisierungs- und Permutationstests409
2.1 Grundprinzip409
2.2 Anwendungsbeispiel410
3 Jackknife411
3.1 Grundprinzip411
3.2 Anwendungsbeispiel412
4 Bootstrapping414
4.1 Grundprinzip414
4.2 Bestimmung von Standardfehler und Bias415
4.3 Anwendungsbeispiel für Standardfehler und Bias416
4.4 Bestimmung von Konfidenzintervallen417
4.5 Bootstrapping Regressionsmodelle419
4.6 Weitere Anwendungsmöglichkeiten des Bootstrapping420
5 Kritische Würdigung421
Literatur422
Ausgewählte Verfahren der Holdout- und Kreuzvalidierung424
1 Einführung424
2 Das Holdout-Verfahren425
2.1 Aufteilung von Datensätzen425
2.2 Ablauf der Schätzung nach dem Holdout-Verfahren426
2.3 Vor- und Nachteile des Holdout-Verfahrens430
3 Verfahren der Kreuzvalidierung430
3.1 Das Leave-One-Out-Verfahren430
3.2 Random-Subsampling und Delete-d-Kreuzvalidierung431
3.3 Die k-fache Kreuzvalidierung431
3.4 Optimale Anzahl an Wiederholungen432
4 Abschließende Bemerkungen432
5 Zusammenfassung433
Literatur433
Prognosegütemaße434
1 Einleitung434
2 Einfache Prognosegütemaße435
2.1 Grundformen435
2.2 Mischformen436
2.3 Alternativen zu Mittelwerten als Prognosegütemaße437
3 Normierte Prognosegütemaße438
3.1 Random Walk und Naive Prognose438
3.2 Theilscher Ungleichheitskoeffizient438
3.3 Prognosegütemaße auf Basis des Relative Absolute Error (RAE)441
4 Verbreitung und Beurteilung von Prognosegütemaßen442
4.1 Verbreitung von Prognosegütemaßen443
4.2 Beurteilung von Prognosegütemaßen444
5 Zusammenfassung446
Literatur446
Autoren448
Stichwortverzeichnis454
Zusätzliche Beiträge zum Buch Methodik der empirischen Forschung463

Weitere E-Books zum Thema: Marketing - Verkauf - Sales - Affiliate

Marketing

E-Book Marketing
Grundlagen für Studium und Praxis Format: PDF

Dieses Lehrbuch vermittelt die gesamten Grundlagen des Marketing und nimmt dabei konsequent Bezug auf die Praxis. Die anwendungsorientierte Darstellung versetzt den Leser in die Lage,…

Marketing

E-Book Marketing
Grundlagen für Studium und Praxis Format: PDF

Dieses Lehrbuch vermittelt die gesamten Grundlagen des Marketing und nimmt dabei konsequent Bezug auf die Praxis. Die anwendungsorientierte Darstellung versetzt den Leser in die Lage,…

Die Zukunft des Kunstmarktes

E-Book Die Zukunft des Kunstmarktes
Format: PDF

Mit Beiträgen von Jean-Christophe Ammann, Bazon Brock, Peter Conradi, Wilfried Dörstel, Andreas Dornbracht, Walter Grasskamp, Bernd Günter/Andrea Hausmann, Arnold Hermanns, Bernd Kauffmann, Tobias…

Texten für das Web

E-Book Texten für das Web
Erfolgreich werben, erfolgreich verkaufen Format: PDF

Dieses Buch bietet das nötige Handwerkszeug, um die Qualität der eigenen Web-Texte zu verbessern bzw. eingekaufte Texte sicherer beurteilen zu können. Es liefert klare Kriterien für die Textanalyse,…

Texten für das Web

E-Book Texten für das Web
Erfolgreich werben, erfolgreich verkaufen Format: PDF

Dieses Buch bietet das nötige Handwerkszeug, um die Qualität der eigenen Web-Texte zu verbessern bzw. eingekaufte Texte sicherer beurteilen zu können. Es liefert klare Kriterien für die Textanalyse,…

Texten für das Web

E-Book Texten für das Web
Erfolgreich werben, erfolgreich verkaufen Format: PDF

Dieses Buch bietet das nötige Handwerkszeug, um die Qualität der eigenen Web-Texte zu verbessern bzw. eingekaufte Texte sicherer beurteilen zu können. Es liefert klare Kriterien für die Textanalyse,…

Total Loyalty Marketing

E-Book Total Loyalty Marketing
Format: PDF

Die immer gleiche Marke als Lebensabschnittsbegleiter hat ausgedient - könnte man meinen. Doch zu einigen Produkten und Dienstleistungen haben deren Verwender eine besondere Beziehung: eine…

Weitere Zeitschriften

ARCH+.

ARCH+.

ARCH+ ist eine unabhängige, konzeptuelle Zeitschrift für Architektur und Urbanismus. Der Name ist zugleich Programm: mehr als Architektur. Jedes vierteljährlich erscheinende Heft beleuchtet ...

arznei-telegramm

arznei-telegramm

Das arznei-telegramm® informiert bereits im 53. Jahrgang Ärzte, Apotheker und andere Heilberufe über Nutzen und Risiken von Arzneimitteln. Das arznei-telegramm®  ist neutral und ...

BEHINDERTEPÄDAGOGIK

BEHINDERTEPÄDAGOGIK

Für diese Fachzeitschrift arbeiten namhafte Persönlichkeiten aus den verschiedenen Fotschungs-, Lehr- und Praxisbereichen zusammen. Zu ihren Aufgaben gehören Prävention, Früherkennung, ...

Die Versicherungspraxis

Die Versicherungspraxis

Behandlung versicherungsrelevanter Themen. Erfahren Sie mehr über den DVS. Der DVS Deutscher Versicherungs-Schutzverband e.V, Bonn, ist der Interessenvertreter der versicherungsnehmenden Wirtschaft. ...

filmdienst#de

filmdienst#de

filmdienst.de führt die Tradition der 1947 gegründeten Zeitschrift FILMDIENST im digitalen Zeitalter fort. Wir begleiten seit 1947 Filme in allen ihren Ausprägungen und Erscheinungsformen.  ...