Merkmale-quantitativer-Forschung-Merkmale-quantitativer-Forschung

Was sind die Merkmale quantitativer Forschung? Merkmale der quantitativen Forschung auf den Punkt gebracht

Die Merkmale der quantitativen Forschung tragen zu Methoden bei, die Statistiken als Grundlage für Verallgemeinerungen über etwas verwenden. Diese Verallgemeinerungen werden aus Daten konstruiert, die verwendet werden, um Muster und Durchschnitte zu finden und kausale Beziehungen zu testen.

Um diesen Prozess zu unterstützen, gehören zu den wichtigsten quantitativen Forschungsmerkmalen:

  1. Die Verwendung von messbaren Variablen.
  2. Standardisierte Forschungsinstrumente.
  3. Zufallsauswahl der Teilnehmer.
  4. Datendarstellung in Tabellen, Grafiken oder Abbildungen.
  5. Die Verwendung einer wiederholbaren Methode.
  6. Die Fähigkeit, Ergebnisse und kausale Zusammenhänge vorherzusagen.
  7. Geschlossene Befragung. 

Jedes Merkmal unterscheidet auch quantitative Forschung von qualitativer Forschung, die das Sammeln und Analysieren von nicht-numerischen Daten wie Text, Video oder Audio beinhaltet.

Lassen Sie uns nun einen genaueren Blick auf die einzelnen Merkmale werfen.

Aber schauen wir uns zuerst an, wie wichtig quantitative Forschung ist und wann sie eine Rolle spielt!

Bedeutung der quantitativen Forschung

Im Kontext eines Unternehmens, das mehr über seinen Markt, seine Kunden oder Konkurrenten erfahren möchte, ist die quantitative Forschung ein leistungsstarkes Werkzeug, das objektive, datenbasierte Erkenntnisse, Trends, Vorhersagen und Muster liefert.

Um die Bedeutung der quantitativen Forschung als Methode zu verdeutlichen, werden wir im Folgenden einige ihrer wichtigsten Vorteile für Unternehmen erörtern.

Research

Bevor ein Unternehmen entwickeln kann a Marketing und Dritten oder sogar eine einzelne Kampagne, muss es Recherchen durchführen, um eine Hypothese über einen idealen Käufer oder die Zielgruppe entweder zu bestätigen oder zu widerlegen.

Vor der Verbreitung des Internets war die quantitative Datenerhebung umständlicher, weniger erschöpfend und erfolgte normalerweise von Angesicht zu Angesicht.

Heutzutage ist die Leichtigkeit, mit der Unternehmen quantitative Forschung durchführen können, beeindruckend – so sehr, dass einige zögern würden, es überhaupt Forschung zu nennen.

Viele Unternehmen führen Fragebögen und Umfragen durch, um mehr Kontrolle darüber zu haben, wie sie Hypothesen testen, aber jedes Unternehmen mit einem Google Analytics-Konto kann passiv Daten zu Schlüsselkennzahlen wie Absprungrate, Entdeckungsschlüsselwörtern und Wert pro Besuch sammeln.

Dabei ist vor allem zu beachten, dass es bei den Forschungsdaten wenig Spielraum für Unsicherheiten gibt. Fragebögen stellen geschlossene Fragen ohne Raum für Mehrdeutigkeiten, und die Gültigkeit von Absprungratendaten wird niemals zur Debatte stehen.

Objektive Darstellung

Grundsätzlich versucht die quantitative Forschung, die Stärke oder Bedeutung kausaler Zusammenhänge festzustellen.

Der Schwerpunkt liegt auf der objektiven Messung auf der Grundlage numerischer, statistischer und mathematischer Daten Analyse oder Manipulation.

Quantitative Forschung wird auch verwendet, um unvoreingenommene, logische und statistische Ergebnisse zu erzielen, die repräsentativ für die Population sind, aus der die Stichprobe gezogen wird.

Im Fall eines Vermarkters ist die Bevölkerung normalerweise die Zielgruppe eines Produkts oder einer Dienstleistung.

Aber in jedem Fall sind Organisationen auf quantitative Daten angewiesen, da sie detaillierte, genaue und relevante Informationen zum vorliegenden Problem liefern.

Wenn es an der Zeit ist, die Hypothese entweder zu beweisen oder zu widerlegen, können Unternehmen entweder mit robusten Daten voranschreiten oder ihre aktuelle Forschungsrichtung aufgeben und neu beginnen.

Vielseitigkeit der quantitativen statistischen Analyse

Beim Beweis einer Hypothese geht es um die statistischen Analysen, die ein Unternehmen durchführen muss, um zu der Antwort zu gelangen.

Glücklicherweise gibt es zahlreiche Techniken, die ein Unternehmen je nach Kontext und Ziel der Forschung anwenden kann. 

Diese umfassen:

Conjoint-Analyse

Conjoint-Analyse
Joint Analyse ist ein Marktforschungsinstrument, das den Wert der Verbraucher für bestimmte Produkte oder Dienstleistungen misst. Marktforschungen können beispielsweise über Umfragen durchgeführt werden, die bewertungs-, einstufungs- oder auswahlbasiert sein können.

Wird verwendet, um den Wert von Attributen zu identifizieren, die Kaufentscheidungen beeinflussen, wie z. B. Kosten, Vorteile oder Funktionen.

Es ist nicht überraschend, dass dies Analyse wird bei Produktpreisgestaltung, Produkteinführung und Marktplatzierungsinitiativen verwendet.

GAP-Analyse

Gap-Analyse
Ein Spalt Analyse hilft einer Organisation, ihre Ausrichtung an strategischen Zielen zu beurteilen, um festzustellen, ob die aktuelle Ausführung mit der des Unternehmens übereinstimmt Mission und langfristige Vision. Gap-Analysen helfen dann, eine Zielleistung zu erreichen, indem sie Organisationen helfen, ihre Ressourcen besser zu nutzen. Eine gute Lücke Analyse ist ein mächtiges Werkzeug zur Verbesserung der Ausführung.

An Analyse die die Diskrepanz bestimmt, die zwischen der tatsächlichen und der gewünschten Leistung eines Produkts oder einer Dienstleistung besteht.

MaxDiff-Analyse

Eine einfachere Version des Conjoints Analyse die Vermarkter verwenden, um Kundenpräferenzen zu analysieren Marke Image, Vorlieben, Aktivitäten, aber auch Produkteigenschaften.

Dies wird auch als „Best-Worst“-Skalierung bezeichnet.

TURF-Analyse

TURF, das für Total Unduplicated Reach and Frequency steht, wird verwendet, um die bestimmte Kombination von Produkten und Dienstleistungen zu ermitteln, die die meisten Verkäufe bringt.

Die Verwendung von messbaren Variablen

Während der quantitativen Forschung messen Datenerfassungsinstrumente verschiedene Merkmale einer Population. 

Diese Merkmale, die in einer Studie als messbar bezeichnet werden, können das Alter, den wirtschaftlichen Status oder die Anzahl der Angehörigen umfassen.

Standardisierte Forschungsinstrumente

Zu den standardisierten und vorgetesteten Erhebungsinstrumenten gehören Fragebögen, Umfragen und Umfragen. Alternativ können vorhandene statistische Daten unter Verwendung von Rechentechniken manipuliert werden, um neue Erkenntnisse zu gewinnen.

Die Standardisierung von Forschungsinstrumenten stellt sicher, dass die Daten genau, gültig und zuverlässig sind. Die Instrumente sollten auch zuerst getestet werden, um festzustellen, ob die Antworten der Studienteilnehmer der Absicht der Forschung oder ihren Zielen entsprechen.

Zufallsauswahl der Teilnehmer

Quantitative Daten Analyse geht von einem normalen aus Verteilung Kurve aus einer großen Population. 

Zum Sammeln von Daten sollte eine Zufallsstichprobe verwendet werden, eine Technik, bei der jede Stichprobe die gleiche Wahrscheinlichkeit hat, ausgewählt zu werden. Zufällig ausgewählte Stichproben sind unvoreingenommen und wichtig, um statistische Schlussfolgerungen und Schlussfolgerungen zu ziehen.

Hier sind ein paar zufällige Stichprobentechniken.

Echte Zufallsstichprobe

Einige betrachten echte Zufallsstichproben als den Goldstandard, wenn es um probabilistische Studien geht. Obwohl es möglicherweise nicht in jeder Situation oder in jedem Kontext nützlich ist, ist es eines der nützlichsten für riesige Datenbanken.

Bei der Methode werden einer Population verfügbarer Studienteilnehmer Nummern zugewiesen, die dann von einem Zufallszahlengenerator ausgewählt werden. Dadurch wird sichergestellt, dass jede Person in einem Studienpool die gleiche Chance hat, um Feedback gebeten zu werden.

Systematische Probenahme

Die systematische Stichprobenziehung ähnelt der echten Zufallsstichprobe, ist jedoch eher für kleinere Populationen geeignet. Bei dieser Technik wird die Stichprobe ausgewählt, indem ein Startpunkt in der Population zufällig ausgewählt wird und dann alle ausgewählt werden nEinzel danach. 

Wenn ein Forscher beispielsweise jede zwanzigste Person aus einer Kundenliste befragen möchte, würde er zufällig einen Kunden als Ausgangspunkt auswählen und danach jeden zwanzigsten Kunden befragen.

Cluster-Sampling

Beim Cluster-Sampling wird die Grundgesamtheit in Cluster oder Gruppen eingeteilt und eine Zufallsstichprobe von Clustern ausgewählt. Danach werden alle Mitglieder der ausgewählten Cluster in die Stichprobe aufgenommen. 

Wenn ein HR-Team Mitarbeiter einer großen Organisation befragen möchte, kann es mehrere Abteilungen nach dem Zufallsprinzip als Cluster auswählen und dann alle Mitarbeiter in diesen Abteilungen befragen.

Cluster-Sampling kann auch für Unternehmen nützlich sein, deren Kunden oder Produkte über große geografische Gebiete verteilt sind.

Zu diesem Zweck wird häufig Cluster-Sampling verwendet, wenn die Population zu groß oder zu verstreut ist, um einzelne Stichproben zu nehmen. Während es effizienter sein kann, Cluster abzutasten, kann der Ansatz weniger genau sein, wenn es Unterschiede zwischen ihnen gibt.

Datendarstellung in Tabellen, Grafiken und Abbildungen

Die Ergebnisse quantitativer Forschung können manchmal schwer zu entziffern sein, insbesondere für diejenigen, die nicht am Forschungsprozess beteiligt sind.

Tabellen, Grafiken und Abbildungen helfen dabei, die Daten auf eine Weise zu synthetisieren, die für die wichtigsten Stakeholder verständlich ist. Sie sollten Beziehungen, Trends oder Unterschiede in den präsentierten Daten aufzeigen oder definieren.

Nehmen Sie zum Beispiel das McKinsey Global Institute (MGI), den Geschäfts- und Forschungszweig von McKinsey & Company.

MGI wurde 1990 gegründet und kombiniert die Disziplinen Ökonomie und Management, um die makroökonomischen Einflusskräfte zu untersuchen Geschäftsstrategie und öffentliche Ordnung. 

Basierend auf Analyse, veröffentlicht MGI regelmäßig Berichte über mehr als 20 Länder und 30 Branchen rund sechs Schlüsselthemen: natürliche Ressourcen, Arbeitsmärkte, Produktivität und Wachstum, die Entwicklung der globalen Finanzmärkte, die wirtschaftlichen Auswirkungen der Technologie und Innovation, und Urbanisierung.

MGIs Mission ist zu „Stellen Sie Führungskräften im kommerziellen, öffentlichen und sozialen Sektor die Fakten und Erkenntnisse zur Verfügung, auf die sie Management- und politische Entscheidungen stützen können.“ Um dies durchzuführen Mission, McKinseys Datenpräsentation ist der Schlüssel. 

In einem Artikel, der gegen den Deglobalisierungstrend argumentierte, verwendete McKinsey geschickt Grafiken und Balkendiagramme, um quantitative Daten im Zusammenhang mit dem globalen Fluss von immateriellen Gütern, Dienstleistungen und Studenten zu synthetisieren.

Das Unternehmen verwendete auch eine 80-Zellen-Matrix und eine farbcodierte Skala, um den Anteil des Inlandsverbrauchs darzustellen, der durch Zuflüsse für verschiedene geografische Regionen gedeckt wird.

Die Verwendung einer wiederholbaren Methode

Quantitative Forschungsmethoden sollten wiederholbar sein.

Dies bedeutet, dass die Methode von anderen Forschern in einem anderen Kontext angewendet werden kann, um ein bestimmtes Ergebnis zu überprüfen oder zu bestätigen.

Reproduzierbare Forschungsergebnisse geben Forschern mehr Vertrauen in die Ergebnisse. Die Replizierbarkeit verringert auch die Wahrscheinlichkeit, dass die Forschung durch Auswahlverzerrungen und Störvariablen beeinflusst wird.

Die Fähigkeit, Ergebnisse und kausale Zusammenhänge vorherzusagen

Datum Analyse können verwendet werden, um Formeln zu erstellen, die Ergebnisse vorhersagen und kausale Zusammenhänge untersuchen.

Wie bereits angedeutet, werden Daten auch verwendet, um breite oder allgemeine Rückschlüsse auf eine große Population zu ziehen.

Insbesondere kausale Zusammenhänge lassen sich durch sogenannte „Wenn-Dann“-Szenarien beschreiben, die mit komplexen, computergesteuerten mathematischen Funktionen modelliert werden können.

Geschlossene Befragung

Schließlich erfordert quantitative Forschung, dass die Personen, die die Studie durchführen, ihre Fragen mit Bedacht auswählen.

Da die Studie auf quantitativen Daten basiert, müssen unbedingt geschlossene Fragen gestellt werden.

Dies sind Fragen, die nur durch Auswahl aus einer begrenzten Anzahl von Optionen beantwortet werden können. 

Fragen können dichotom sein, mit einer einfachen „ja“ oder „nein“ oder „richtig“ oder „falsch“ Antwort.

Viele Studien beinhalten jedoch auch Multiple-Choice-Fragen, die auf einer Bewertungsskala, einer Likert-Skala, einer Checkliste oder einem Rangfolgesystem basieren.

Stichprobenumfang

Die Stichprobengröße ist ein kritischer Aspekt in der quantitativen Forschung, da sie die Zuverlässigkeit der Ergebnisse beeinflusst.

In der quantitativen Unternehmensforschung bezieht sich die Stichprobengröße auf die Anzahl der Teilnehmer oder Datenpunkte, die in eine Studie einbezogen werden, und es ist von entscheidender Bedeutung, dass die Stichprobengröße für die zu behandelnden Forschungsfragen geeignet ist.

Eine zu kleine Stichprobengröße kann zu unzuverlässigen Schlussfolgerungen führen, da sie die Studienpopulation nicht genau repräsentiert.

Umgekehrt kann eine zu große Stichprobengröße zu unnötigen Kosten und Zeitdruck führen.

Im Allgemeinen erhöhen jedoch größere Stichprobenumfänge tendenziell die Präzision und Zuverlässigkeit von Studienschlussfolgerungen.

Dies liegt daran, dass sie die Auswirkungen zufälliger Variationen verringern und die Aussagekraft erhöhen, statistisch signifikante Unterschiede oder Beziehungen zu erkennen. Größere Stichprobenumfänge erfordern jedoch auch mehr Ressourcen und Zeit zum Sammeln und Analysieren von Daten.

Daher ist es für Unternehmen wichtig, eine Stichprobengröße zu wählen, die Faktoren wie Forschungsfrage, Populationsgröße, Variabilität der Daten und statistische Aussagekraft ausbalanciert.

Vier praktische Beispiele quantitativer Forschung

Nachdem wir nun einige wichtige quantitative Forschungsbeispiele beschrieben haben, wollen wir uns einige Beispiele aus der Praxis ansehen.

1 – Eine quantitative Studie zum Einfluss von Bewertungen in sozialen Medien auf die Markenwahrnehmung

Im Jahr 2015 führte Neha Joshi im Rahmen ihrer Abschlussarbeit an der City University of New York quantitative Forschung durch.

Ziel der Diplomarbeit war es, den Einfluss von Social-Media-Reviews zu ermitteln Marke Wahrnehmung mit besonderem Fokus auf YouTube und Yelp.

Joshi analysierte die Auswirkungen von 942 separaten YouTube-Smartphone-Rezensionen, um ein statistisches Modell zu entwickeln, mit dem die Zuschauerreaktion und das Engagement für ein bestimmtes Video vorhergesagt werden können.

Die breiteren Auswirkungen der Studie beinhalteten die Verwendung von Kundenbewertungen als Feedback-Mechanismus zur Verbesserung Marke Wahrnehmung.

2 – Eine quantitative Studie zur Wahrnehmung von Kontext, Prozess und Inhalt professioneller Lerngemeinschaften durch Lehrer

Daniel R. Johnson von der Seton Hall University in New Jersey, USA, analysierte die Wirksamkeit des Lehrerbildungsmodells Professional Learning Communities (PLC).

Insbesondere wollte Johnson die Auswirkungen des Modells untersuchen, wie sie von zertifizierten Pädagogen in drei spezifischen Bereichen wahrgenommen werden: Inhalt, Prozess und Kontext.

Es gab einen dringenden Bedarf für diese Forschung, da es nur wenige quantitative Daten zu einem Ansatz gab, der auf Regierungs-, Landes- und Bezirksebene immer beliebter wurde.

Die Daten wurden mithilfe von Standard Inventory Assessment (SAI)-Umfragen gesammelt, die online und anonym waren und ein Likert-Skalen-Antwortsystem enthielten.

3 – Eine quantitative Untersuchung der Kursnoten und der Retention im Vergleich von Online- und Präsenzunterricht

Diese Forschung wurde von Vickie A. Kelly im Rahmen ihres Doctor of Education in Educational Leadership an der Baker University in Kansas, USA, durchgeführt.

Kelly wollte wissen, ob Fernunterricht und internetbasierter Unterricht im Vergleich zum traditionellen Präsenzunterricht ein ebenso effektives Lerninstrument sind.

Insgesamt 885 Studierende wurden für die Untersuchungsstichprobe ausgewählt, um die folgenden zwei Fragen zu beantworten:

  1. Gibt es einen statistisch signifikanten Unterschied zwischen den Noten von Präsenzstudierenden und den Noten von Online-Studierenden?
  2. Gibt es einen statistisch signifikanten Unterschied zwischen der Beibehaltung von Kursinhalten bei Präsenzstudenten und Online-Studenten?

In beiden Fällen gab es keinen signifikanten Unterschied, was darauf hindeutet, dass der Fernunterricht als Lerninstrument genauso effektiv war wie der Präsenzunterricht.

4 – Eine quantitative Untersuchung der Einstellung der Verbraucher zur Werbung für Lebensmittelprodukte

An der Universität Bukarest, Rumänien, wollte Mirela-Cristina Voicu die Einstellung der Verbraucher zu traditionellen Werbeformen wie Fernsehen, Radio und Printmedien untersuchen.

Sie begründete dies damit, dass die Einstellung der Verbraucher zur Werbung die Einstellung zum Produkt bzw Marke selbst, mit einer positiven Einstellung, die möglicherweise die Kaufabsicht fördert.

Um festzustellen, ob es einen Zusammenhang zwischen diesen Faktoren gibt, wurden 385 Verbraucher im Raum Bukarest befragt und gebeten, einen Fragebogen auszufüllen.

Voicu stellte sicher, dass die Stichprobe in Bezug auf zwei Variablen repräsentativ für die breitere Bevölkerung war: Alter und Geschlecht.

Die quantitativen Studienergebnisse ergaben, dass 70 % der Teilnehmer traditionelle Werbeformen für gesättigt hielten.

Mit anderen Worten, sie hatten keine positive Einstellung zum Beworbenen Marke oder Produkt.

Allerdings Verbraucher Einstellungen gegenüber Werbung für Lebensmittel waren viel positiver, wobei 61 % der Teilnehmer ihre Einstellung im Fragebogen entweder als positiv oder sehr positiv einstuften. 

Quantitativ vs. Qualitative Forschung

Wie die Geschichte sagt, „Daten sind das neue Öl“, ja, aber welche Daten?

In der Tat, obwohl quantitative Forschung extrem leistungsfähig sein kann, muss sie ausbalanciert werden qualitative Forschung.

merkmale-qualitativer-forschung
Qualitative Forschung wird von Unternehmen durchgeführt, die den menschlichen Zustand anerkennen und mehr darüber erfahren möchten. Zu den Schlüsselmerkmalen qualitativer Forschung, die es Praktikern ermöglichen, qualitative Untersuchungen durchzuführen, gehören kleine Daten, das Fehlen einer endgültigen Wahrheit, die Bedeutung des Kontexts, die Fähigkeiten und Interessen des Forschers.

. qualitative Methoden könnte helfen, die quantitativen Daten zu bereichern.

qualitative Methoden
Qualitative Methoden werden verwendet, um über den quantitativen Ansatz hinaus das Verhalten und die Einstellungen von Menschen zu verstehen, indem Interviews, Fokusgruppen und qualitative Beobachtungen herangezogen werden.

Es ist wichtig zu verstehen, dass quantitative Daten kurzfristig sehr effektiv sein können.

Langfristig kann es uns jedoch nichts sagen.

Dafür müssen wir menschliches Urteilsvermögen, Intuition und Kontextverständnis einsetzen.

In dem, was wir bezeichnen können Denken zweiter Ordnung.

Denken zweiter Ordnung
Denken zweiter Ordnung ist ein Mittel, um die Auswirkungen unserer Entscheidungen durch die Berücksichtigung zukünftiger Konsequenzen abzuschätzen. Denken zweiter Ordnung ist ein mentales Modell, das alle zukünftigen Möglichkeiten berücksichtigt. Es ermutigt den Einzelnen, über den Tellerrand hinauszublicken, damit er sich auf alle Eventualitäten vorbereiten kann. Es entmutigt auch die Tendenz von Einzelpersonen, sich auf die naheliegendste Wahl zu verlassen.

Nur durch den Aufbau eines qualitativen Verständnisses innerhalb quantitativer Methoden in Kombination mit dem Denken zweiter Ordnung; können Sie das Beste aus beiden Welten nutzen!

Nehmen Sie zum Beispiel den interessanten Fall, wie Amazon sowohl quantitative als auch qualitative Daten in seine integriert hat Geschäftsstrategie.

Dies ist ein Teil von Die „Day One“-Mentalität von Jeff Bezos.

jeff-bezos-tag-1
In einem Brief an die Aktionäre im Jahr 2016 sprach Jeff Bezos ein Thema an, über das er in den letzten Jahrzehnten, als er Amazon leitete, ziemlich intensiv nachgedacht hatte: Tag 1. Wie Jeff Bezos es ausdrückte: „Tag 2 ist Stillstand. Gefolgt von Bedeutungslosigkeit. Gefolgt von einem quälenden, schmerzhaften Verfall. Gefolgt vom Tod. Und deshalb ist es immer Tag 1.“

Dadurch konnte Amazon verstehen, wann eine Hebelwirkung sinnvoll ist quantitative vs. qualitative Daten.

As Jeff Bezos 2006 erklärt:

"Viele der wichtigen Entscheidungen, die wir bei Amazon.com treffen, können anhand von Daten getroffen werden. Es gibt eine richtige oder eine falsche Antwort, eine bessere oder eine schlechtere Antwort, und die Mathematik sagt uns, welche welche ist. Das sind unsere liebsten Entscheidungen.“

Wie unsere Aktionäre wissen, haben wir uns entschieden, die Preise für unsere Kunden Jahr für Jahr kontinuierlich und deutlich zu senken, da unsere Effizienz und Größe dies ermöglichen.

In der Tat war dies der Kerngedanke von Das Schwungrad von Amazon.

Und Jeff Bezos erklärte auch:

Dies ist ein Beispiel für eine sehr wichtige Entscheidung, die nicht auf mathematische Weise getroffen werden kann. Wenn wir die Preise senken, verstoßen wir tatsächlich gegen die Mathematik, die wir machen können, die immer besagt, dass der kluge Schachzug darin besteht, die Preise zu erhöhen.

In der Tat, wie Jeff Bezos weiter erklärte:

Wir verfügen über signifikante Daten zur Preiselastizität. Mit ziemlicher Genauigkeit können wir vorhersagen, dass eine Preissenkung um einen bestimmten Prozentsatz zu einem Anstieg der verkauften Einheiten um einen bestimmten Prozentsatz führen wird. Mit seltenen Ausnahmen reicht die kurzfristige Volumensteigerung nie aus, um den Preisrückgang zu bezahlen. 

Kurz gesagt, Optimierungstools, die quantitative Analyse sind kurzfristig sehr wirksam und beziehen sich auf Aktivitäten erster Ordnung.

Das sagt aber in vielen Fällen nichts über die Spätfolgen zweiter Ordnung aus!

Jeff Bezos hat das sehr gut erklärt:

Unser quantitatives Verständnis von Elastizität ist jedoch kurzfristig. Wir können abschätzen, was eine Preissenkung in dieser Woche und in diesem Quartal bewirken wird. Aber wir können nicht numerisch abschätzen, welche Auswirkungen eine konsequente Preissenkung auf unsere haben wird Geschäft über fünf Jahre oder zehn Jahre oder mehr. 

Und er führte den Unterschied zwischen quantitativen Daten und menschlichem Urteilsvermögen ein, das ein qualitatives Maß ist!

Wir sind der Meinung, dass die unermüdliche Rückgabe von Effizienzverbesserungen und Skaleneinsparungen an die Kunden in Form niedrigerer Preise einen positiven Kreislauf schafft, der langfristig zu einem viel größeren kostenlosen Dollarbetrag führt Bargeld fließen und damit zu einem viel wertvolleren Amazon.com.

Er hob hervor, wie langfristige, unvorhersehbare und kontraintuitive Wetten das Ergebnis menschlichen Urteilsvermögens seien:

Wir haben ähnliche Urteile in Bezug auf kostenlosen Super-Spar-Versand und Amazon Prime gefällt, die beide kurzfristig teuer und – wie wir glauben – langfristig wichtig und wertvoll sind.

Quantitative Forschungsbeispiele 

Puffer

Es gibt viele Diskussionen über die ideale Länge von Social-Media-Beiträgen im Internet, und vieles davon ist anekdotisch oder bestenfalls reine Vermutung.

Um das Rauschen zu durchbrechen und zu datengestützten Schlussfolgerungen zu gelangen, Marke Gebäude Plattform Buffer hat sich mit dem Analysesoftwareunternehmen SumAll zusammengetan.

In diesem Beispiel umfasste die Recherche die tabellarische Erfassung und Quantifizierung des Social-Media-Engagements als Faktor der Beitragslänge.

Posts umfassten eine Vielzahl von Social-Media-Updates wie Tweets, Blog-Posts, Facebook-Posts und Schlagzeilen. Die Studie ermittelte:

  • Die optimale Breite eines Absatzes (140 Zeichen).
  • Die optimale Länge eines Domainnamens (8 Zeichen).
  • Die optimale Länge eines Hashtags (6 Zeichen).
  • Die optimale Länge eines E-Mail-Betreffs (28 bis 39 Zeichen) und
  • Die optimale Dauer eines Podcasts (22 Minuten) und eines YouTube-Videos (3 Minuten).

Woher SumAll seine quantitativen Daten bezieht, variiert je nach Art des Social-Media-Beitrags.

Um die optimale Breite eines Absatzes zu bestimmen, verwies das Unternehmen auf den Social-Media-Guru Derek Halpern, der selbst Daten aus zwei verschiedenen akademischen Studien analysierte.

Um die optimale Länge einer E-Mail-Betreffzeile zu bestimmen, verwies SumAll auf eine Studie von Mailer Mailer aus dem Jahr 2012 die 1.2 Milliarden E-Mail-Nachrichten analysierte Trends zu erkennen.

Großwelle

Tallwave ist ein Designunternehmen für Kundenerlebnisse, das quantitative Untersuchungen für Kunden durchführt und potenzielle Trends identifiziert. 

Im Zuge von COVID-19 wollte das Unternehmen wissen, ob sich die durch die Pandemie ausgelösten Verbrauchertrends nach Aufhebung der Beschränkungen fortsetzen würden.

Zu diesen Trends gehörten Online-Kauf, Abholung im Geschäft (BOPIS) und gemischte, zu Hause zubereitete Restaurantmahlzeiten. 

Tallwave wollte auch mehr über die Erwartungen der Verbraucher in Bezug auf Markenkommunikation erfahren.

Waren in einer Welt nach der Pandemie Gesundheits- und Sicherheitsvorkehrungen wichtiger als die Unannehmlichkeiten, die sie verursachten?

Würden Kunden digitale Erlebnisse aufgeben und zu stationären Geschäften zurückkehren? War es tatsächlich klug, weiterhin in Infrastruktur zu investieren, die der Kunde nicht wollte?

Um quantitative Daten zu sammeln, hat Tallwave befragte 1,010 Personen in den Vereinigten Staaten ab 24 Jahren im April 2021.

Den Verbrauchern wurden verschiedene Fragen zu ihrem Verhalten, ihrer Wahrnehmung und ihren Bedürfnissen vor und nach der Pandemie gestellt. 

Das Unternehmen stellte fest, dass sich das Kundenverhalten infolge von COVID-19 zwar geändert hatte, aber nicht im vorhergesagten Ausmaß. Einige der wichtigsten Erkenntnisse sind:

  1. Bequemlichkeit übertrumpft alles – Während sich viele Marken weiterhin auf Gesundheit und Sicherheit konzentrierten, legen Kunden nach wie vor vor allem Wert auf Komfort. Sicherheitsbezogene Bedürfnisse waren für alle Altersgruppen (außer Gen Z) die zweitwichtigsten.
  2. Die Rolle digitaler Erlebnisse – Die meisten Umfrageteilnehmer, die die digitale Erfahrung eines Unternehmens nutzten, beurteilten dieses Unternehmen positiver. Dies bewies, dass in einer Post-COVID-Welt die Flexibilität für die Verbraucher, ihr eigenes „Abenteuer“ zu wählen, von größter Bedeutung ist.
  3. Die Zugänglichkeit digitaler Erlebnisse – Die Umfragedaten zeigten auch, dass das Interesse an digitalen Erlebnissen mit zunehmendem Alter ab der Altersgruppe der 45- bis 54-Jährigen abnahm. Da 66 % der über 55-Jährigen angaben, nach COVID-19 keine Lust mehr zu haben, mit Online-Erlebnissen fortzufahren, argumentierte Tallwave, dass eine zunehmende digitale Kompetenz langfristig zu einer größeren Akzeptanz und einem größeren Engagement führen würde.

Zusätzliche Fallstudien

Beispiele für Geschäftsszenarien mit quantitativer Forschung:

  • Marktsegmentierung:
    • Ein Unternehmen, das ein neues Produkt auf den Markt bringt, führt Umfragen durch, um herauszufinden, welche Altersgruppe am meisten an seinem Produkt interessiert ist.
  • Preisoptimierung:
    • Ein Einzelhandelsgeschäft nutzt Conjoint Analyse um den optimalen Preis für einen neuen Artikel zu ermitteln.
  • Verbraucherpräferenzen:
    • Ein Getränkeunternehmen testet verschiedene Geschmacksrichtungen und ermittelt mithilfe von Bewertungsskalen, welche neue Geschmacksrichtung auf den Markt gebracht werden soll.
  • Benutzerfreundlichkeit der Website:
    • Eine E-Commerce-Website analysiert die Klickraten, um das Layout ihrer Produktseiten zu optimieren.
  • Markenbewusstsein:
    • Ein Startup nutzt Umfragen, um zu messen, wie viele Verbraucher sich seines Unternehmens bewusst sind Marke nach einem Marketing Kampagne.
  • Werbewirksamkeit:
    • Ein Unternehmen führt eine Online-Umfrage durch, um die Wirksamkeit seines aktuellen TV-Werbespots zu messen.
  • Absatzprognose:
    • Ein Technologieunternehmen analysiert vergangene Verkaufsdaten, um die Anzahl der Einheiten vorherzusagen, die es im nächsten Quartal verkaufen wird.
  • Mitarbeiterzufriedenheit:
    • Ein Unternehmen nutzt standardisierte Fragebögen, um die Mitarbeiterzufriedenheit zu messen und Verbesserungsmöglichkeiten zu identifizieren.
  • Effizienz der Lieferkette:
    • Ein produzierendes Unternehmen analysiert Durchlaufzeiten und Liefergeschwindigkeiten, um seine Lieferkettenprozesse zu optimieren.
  • Produktplazierung:
    • Eine Einzelhandelskette überprüft Verkaufsdaten, um die optimale Regalplatzierung für Produkte zu ermitteln und so den Umsatz zu maximieren.
  • Kundentreue und -bindung:
    • Eine Fluggesellschaft analysiert Vielfliegerdaten, um Muster zu verstehen und Treueprämien einzuführen.
  • Investitionsentscheidungen:
    • Ein Finanzinstitut verwendet quantitative Methoden Analyse um Börsentrends vorherzusagen.
  • Werbeaktionen optimieren:
    • Ein Supermarkt nutzt Verkaufsdaten, um zu verstehen, welche Produkte sich bei Werbeveranstaltungen am besten verkaufen.
  • Betriebseffizienz:
    • Ein Restaurant überprüft Zeiterfassungsdaten, um Schichtpläne während der Spitzenzeiten zu optimieren.
  • Kundenfeedback zu neuen Funktionen:
    • Ein Softwareunternehmen nutzt Umfragen, um Feedback zu einer neuen Funktion zu sammeln, die es eingeführt hat.
  • Wirtschaftsprognose:
    • Unternehmen analysieren makroökonomische Indikatoren, um die Marktbedingungen vorherzusagen.
  • Bestandsverwaltung:
    • Einzelhändler überprüfen Verkäufe und Inventar Daten zur Vorhersage des Wiederauffüllungsbedarfs.
  • Immobilienentscheidungen:
    • Eine Hotelkette nutzt quantitative Forschung, um anhand von Reise- und Belegungsdaten die besten Standorte für neue Hotels zu ermitteln.
  • Wettbewerbsanalyse:
    • Ein Unternehmen überprüft Marktanteilsdaten, um seine Position im Vergleich zu Wettbewerbern zu verstehen.
  • Effizienz des Kundensupports:
    • Ein serviceorientiertes Unternehmen analysiert Callcenter-Daten, um Wartezeiten zu verkürzen und den Kundenservice zu verbessern.

Die zentralen Thesen

  • Die Merkmale der quantitativen Forschung tragen zu Methoden bei, die Statistiken als Grundlage für Verallgemeinerungen über etwas verwenden.
  • In einer quantitativen Studie werden messbare Variablen mit standardisierten Forschungsinstrumenten analysiert. Wichtig ist, dass die Daten einer großen, repräsentativen Population zufällig entnommen werden müssen, um Verzerrungen zu vermeiden.
  • Quantitative Forschungsdaten sollten auch in Tabellen und Grafiken dargestellt werden, um die wichtigsten Ergebnisse für nicht-technische Interessengruppen besser verdaulich zu machen. Methoden müssen auch in unterschiedlichen Kontexten wiederholbar sein, um eine größere Vertrauenswürdigkeit und Validität der Ergebnisse zu gewährleisten.

Wichtige Highlights der quantitativen Forschungsmerkmale:

  • Quantitative Forschung nutzt Statistiken, um Verallgemeinerungen auf der Grundlage messbarer Variablen vorzunehmen.
  • Zur Datenerhebung werden standardisierte Forschungsinstrumente wie Fragebögen und Umfragen eingesetzt.
  • Eine zufällige Auswahl der Teilnehmer gewährleistet unvoreingenommene Ergebnisse aus einer größeren Population.
  • Die Daten werden zum besseren Verständnis in Tabellen, Grafiken oder Abbildungen dargestellt.
  • Die Forschungsmethode ist zur Überprüfung und Validität wiederholbar.
  • Es ermöglicht die Vorhersage von Ergebnissen und Kausalzusammenhängen.
  • Um spezifische und strukturierte Antworten zu sammeln, werden geschlossene Fragen verwendet.

Bedeutung der quantitativen Forschung:

  • Bietet objektive, datenbasierte Erkenntnisse, Trends, Vorhersagen und Muster für Unternehmen.
  • Hilft bei der Entwicklung Marketing Strategien und Verständnis der Zielgruppe.
  • Konzentriert sich auf objektive Messungen und die Erzielung unvoreingenommener Ergebnisse.
  • Bietet Vielseitigkeit in der Statistik Analyse Techniken für verschiedene Forschungsziele.

Beispiele aus der Praxis quantitativer Forschung:

  • Einfluss von Social-Media-Bewertungen auf die Markenwahrnehmung.
  • Wahrnehmung professioneller Lerngemeinschaften durch Lehrer.
  • Vergleich der Kursnoten und des Verbleibs im Online- und Präsenzunterricht.
  • Verbrauchereinstellungen gegenüber Lebensmittelwerbung.

Qualitative vs. quantitative Forschung:

  • Qualitative Forschung umfasst nicht-numerische Daten und konzentriert sich auf das Verständnis menschlichen Verhaltens und Einstellungen.
  • Quantitative Forschung stützt sich auf messbare Variablen und Statistiken, um umfassende Schlussfolgerungen zu ziehen.
  • Die Kombination beider Methoden ermöglicht ein umfassendes Verständnis komplexer Phänomene.

Überlegungen zur Stichprobengröße:

  • Die Stichprobengröße ist in der quantitativen Forschung entscheidend, um zuverlässige Ergebnisse zu gewährleisten.
  • Größere Stichprobengrößen erhöhen die Präzision und verringern die Auswirkungen zufälliger Variationen.
  • Ausgewogene Stichprobengrößen sind für gültige und statistisch signifikante Schlussfolgerungen unerlässlich.

Hauptpunkte

  • Quantitative Forschungsmerkmale:
    • Beinhaltet Statistik Analyse um Verallgemeinerungen auf der Grundlage messbarer Variablen vorzunehmen.
    • Verwendet standardisierte Forschungsinstrumente wie Umfragen und Fragebögen.
    • Erfordert eine Zufallsstichprobe für eine unvoreingenommene Darstellung aus einer größeren Population.
    • Präsentiert Daten zur Visualisierung in Form von Tabellen, Grafiken oder Abbildungen.
    • Sollte einer wiederholbaren Methode zur Validierung und Zuverlässigkeit folgen.
    • Ermöglicht die Vorhersage von Ergebnissen und die Identifizierung kausaler Zusammenhänge.
    • Verwendet geschlossene Fragen, um spezifische Antworten zu sammeln.
  • Bedeutung der quantitativen Forschung:
    • Bietet datengesteuerte Erkenntnisse, Muster, Trends und Vorhersagen.
    • Informiert Geschäftsstrategien, Marketing Entscheidungen und Verständnis des Publikums.
    • Bietet objektive Messung und Darstellung von Trends.
    • Ermöglicht eine fundierte Entscheidungsfindung durch Statistik Analyse.
  • Beispiele aus der Praxis quantitativer Forschung:
    • Untersucht die Auswirkungen sozialer Medien auf Marke Wahrnehmung.
    • Untersucht die Wahrnehmung professioneller Lerngemeinschaften durch Lehrer.
    • Vergleicht die Effektivität von Online- und Präsenzkursen.
    • Untersucht die Einstellung der Verbraucher zur Lebensmittelwerbung.
  • Quantitative vs. qualitative Forschung:
    • Qualitative Forschung konzentriert sich auf das Verständnis menschlichen Verhaltens anhand nicht-numerischer Daten.
    • Quantitative Forschung legt Wert auf messbare und statistische Variablen Analyse.
    • Die Kombination beider Methoden ermöglicht ein umfassendes Verständnis komplexer Phänomene.
  • Überlegungen zur Stichprobengröße:
    • Die Probengröße ist entscheidend für zuverlässige und genaue Ergebnisse.
    • Größere Stichproben erhöhen die Präzision und verringern die Auswirkungen zufälliger Variationen.
    • Ausgewogene Stichprobengrößen gewährleisten gültige und statistisch signifikante Ergebnisse.

Lesen Sie auch: Quantitative vs. qualitative Forschung.

Verbundene Analyse-Frameworks

Cynefin-Framework

Cynefin-Framework
Das Cynefin-Framework gibt der Entscheidungsfindung und Problemlösung einen Kontext, indem es Kontext bereitstellt und eine angemessene Reaktion anleitet. Die fünf Domänen des Cynefin-Frameworks umfassen offensichtliche, komplizierte, komplexe, chaotische Domänen und Unordnung, wenn eine Domäne überhaupt nicht bestimmt wurde.

SWOT-Analyse

SWOT-Analyse
Eine SWOT-Analyse ist ein Rahmenwerk, das zur Bewertung der Stärken, Schwächen, Chancen und Risiken des Unternehmens verwendet wird. Es kann Ihnen helfen, die problematischen Bereiche Ihres Unternehmens zu identifizieren, damit Sie Ihre Chancen maximieren können. Es macht Sie auch auf die Herausforderungen aufmerksam, mit denen Ihre Organisation in Zukunft konfrontiert sein könnte.

Persönliche SWOT-Analyse

persönliche SWOT-Analyse
Der SWOT Analyse wird häufig als strategisches Planungsinstrument in Unternehmen verwendet. Es eignet sich jedoch auch gut für den persönlichen Gebrauch, um ein bestimmtes Ziel oder Problem anzugehen. Ein persönlicher SWOT Analyse hilft Einzelpersonen, ihre Stärken, Schwächen, Chancen und Risiken zu erkennen.

Pareto-Analyse

Pareto-Prinzip-Pareto-Analyse
Die Pareto-Analyse ist eine Statistik Analyse Wird bei der Entscheidungsfindung in Unternehmen verwendet, um eine bestimmte Anzahl von Inputfaktoren zu identifizieren, die den größten Einfluss auf das Einkommen haben. Es basiert auf dem gleichnamigen Pareto-Prinzip, das besagt, dass 80 % der Wirkung von etwas nur 20 % der Fahrer zuzuschreiben sind.

Fehlermöglichkeits- und Einflussanalyse

Fehlermöglichkeits- und Auswirkungsanalyse
Ein Ausfallmodus und Auswirkungen Analyse (FMEA) ist ein strukturierter Ansatz zur Identifizierung von Konstruktionsfehlern in einem Produkt oder Prozess. Entwickelt in den 1950er Jahren, die Ausfallart und Auswirkungen Analyse ist eine der frühesten Methoden ihrer Art. Es ermöglicht Unternehmen, eine Reihe potenzieller Fehler während der Entwurfsphase vorherzusehen.

Blindspot-Analyse

Blindspot-Analyse
Eine Blindspot-Analyse ist ein Mittel, um falsche oder veraltete Annahmen aufzudecken, die die Entscheidungsfindung in einer Organisation beeinträchtigen können. Der Begriff „blinder Fleck Analyse“ wurde erstmals vom amerikanischen Ökonomen Michael Porter geprägt. Porter argumentierte, dass veraltete Ideen oder Strategien in der Geschäftswelt das Potenzial hätten, moderne Ideen zu ersticken und sie am Erfolg zu hindern. Darüber hinaus führten sorgfältig getroffene unternehmerische Entscheidungen dazu, dass Projekte scheiterten, weil wesentliche Faktoren nicht gebührend berücksichtigt worden waren.

Vergleichbare Unternehmensanalyse

Vergleichsunternehmensanalyse
Ein vergleichbares Unternehmen Analyse ist ein Prozess, der die Identifizierung ähnlicher Organisationen ermöglicht, die als Vergleich verwendet werden können, um die geschäftliche und finanzielle Leistung des Zielunternehmens zu verstehen. Um Vergleichswerte zu finden, können Sie sich zwei Schlüsselprofile ansehen: das Geschäfts- und das Finanzprofil. Aus der vergleichbaren Unternehmensanalyse ist es möglich, die Wettbewerbslandschaft der Zielorganisation zu verstehen.

Kosten-Nutzen-Analyse

Kosten-Nutzen-Analyse
Eine Kosten-Nutzen-Analyse ist ein Prozess, den ein Unternehmen verwenden kann, um Entscheidungen nach den Kosten zu analysieren, die mit dieser Entscheidung verbunden sind. Damit eine Kostenanalyse effektiv ist, ist es wichtig, das Projekt so einfach wie möglich zu formulieren, die Kosten zu identifizieren, den Nutzen der Projektimplementierung zu bestimmen und die Alternativen zu bewerten.

Agile Geschäftsanalyse

agile-business-analyse
Agile Business Analysis (AgileBA) ist eine Zertifizierung in Form von Anleitung und Training für Business Analysten, die in agilen Umgebungen arbeiten möchten. Um diesen Wandel zu unterstützen, hilft AgileBA dem Business Analyst auch dabei, agile Projekte mit einer breiteren Organisation zu verknüpfen Mission or und Dritten . Um sicherzustellen, dass Analysten über die erforderlichen Fähigkeiten und Fachkenntnisse verfügen, wurde die AgileBA-Zertifizierung entwickelt.

SOAR-Analyse

Soar-Analyse
Eine SOAR-Analyse ist eine Technik, die Unternehmen auf strategischer Planungsebene dabei hilft: sich auf das zu konzentrieren, was sie richtig machen. Bestimmen Sie, welche Fähigkeiten verbessert werden könnten. Verstehen Sie die Wünsche und Motivationen ihrer Stakeholder.

STEEPLE-Analyse

Kirchturm-Analyse
Die STEEPLE-Analyse ist eine Variation der STEEP-Analyse. Wobei die Stufenanalyse soziokulturelle, technologische, wirtschaftliche, ökologische/ökologische und politische Faktoren als Grundlage der Analyse umfasst. Die STEEPLE-Analyse fügt zwei weitere Faktoren wie Legal und Ethical hinzu.

Pestel-Analyse

Pestel-Analyse
Die PESTEL-Analyse ist ein Rahmenwerk, das Marketingfachleuten helfen kann, zu beurteilen, ob makroökonomische Faktoren eine Organisation beeinflussen. Dies ist ein entscheidender Schritt, der Unternehmen hilft, potenzielle Bedrohungen und Schwachstellen zu identifizieren, die in anderen Frameworks wie SWOT verwendet werden können, oder um ein breiteres und besseres Verständnis des Gesamten zu erlangen Marketing Umwelt.

DESTEP-Analyse

Destep-Analyse
Eine DESTEP-Analyse ist ein Rahmenwerk, das von Unternehmen verwendet wird, um ihr externes Umfeld und die Probleme, die sich auf sie auswirken können, zu verstehen. Die DESTEP-Analyse ist eine Erweiterung der beliebten PEST-Analyse, die von Francis J. Aguilar, Professor an der Harvard Business School, entwickelt wurde. Die DESTEP-Analyse gruppiert externe Faktoren in sechs Kategorien: demografische, wirtschaftliche, soziokulturelle, technologische, ökologische und politische.

Paarvergleichsanalyse

Paarvergleichsanalyse
Eine Paarvergleichsanalyse wird verwendet, um Optionen zu bewerten oder einzustufen, bei denen Bewertungskriterien von Natur aus subjektiv sind. Die Analyse ist besonders nützlich, wenn klare Prioritäten oder objektive Daten fehlen, auf denen Entscheidungen basieren können. Eine Paarvergleichsanalyse bewertet eine Reihe von Optionen, indem sie sie miteinander vergleicht.

Verwandte Strategiekonzepte: Go-To-Market StrategieMarketing-StrategieGeschäftsmodelleTech-GeschäftsmodelleZu erledigende AufgabenDesign ThinkingLean-Startup-CanvasWertschöpfungsketteWertvorschlags-CanvasBalanced ScorecardBusiness Model CanvasSWOT-AnalyseWachstumshackenBündelungEntbündelungBootstrappingRisikokapitalPorter's Five ForcesPorters generische StrategienPorter's Five ForcesPESTEL-AnalyseSWOTPorters Diamond-ModellansoffTechnologieakzeptanzkurveSCHLEPPENSTEIGENBalanced ScorecardOKRsAgile MethodologieWert P

Wichtigste kostenlose Anleitungen:

Über den Autor

Nach oben scrollen
FourWeekMBA