home
kontakt
login
Qualitative Sozialforschung und Qualitätssicherung

Hinsichtlich der Nutzung von nicht-numerischen Informationen hat sich in den Sozialwissenschaften unter dem Stichwort "Qualitative Sozialforschung' in den letzten 10-15 Jahren eine intensive Diskussion entfacht. Vor diesem Hintergrund sind vielfältige Forschungsprogramme, Methodologien und Methoden entstanden. Innerhalb dieser Diskussion wurden auch Fragen nach Kriterien zur Bewertung qualitativer Sozialforschung aufgeworfen und behandelt. Die Möglichkeit einer erfolgversprechenden Übertragung von Methoden aus der qualitativen Sozialforschung auf das betriebliche Knowledge Management zur systematischen und qualitätssichernden Nutzung von nicht-numerischen Informationen soll untersucht werden. Die Diskussion erfolgt entlang einer Unterscheidung zwischen Daten, Information und Wissen.

Daten sind Beobachtungen über die Welt, die quantitativ sind (z. B. Umsatz, Lagerbestand), einfach zu erheben und zu speichern sind. "Es zeigt sich deutlich, dass harte Daten einen weichen Kern haben können.".

Neben quantitativen gibt es nicht-numerische bzw. qualitative Daten (z. B. Kundengespräche, Preview Releases, halbstandardisierte Interviews zum Betriebsklima, offene Beobachtungen), bei denen nicht davon auszugehen ist, dass sie einfach zu erheben sind. Je nach Erkenntnisinteresse kann zwischen unterschiedlichen Methoden mit bestimmten Vor- und Nachteilen ausgewählt werden. Die Daten (z. B. Interviewäußerungen) sind keine "Rohdaten", da sie in einer sozialen Situation (Interviewsituation) hergestellt werden. Die Daten sind ein gemeinsames Produkt von Forscher und befragter Person, d. h. von zwei Subjekten mit jeweils spezifischen biographischen Hintergründen, Interessen am Gegenstand des Interviews, Kommunikationsstilen, "Sprachen" etc. Die Äußerungen der Untersuchten sind abhängig von der jeweiligen sozialen Situation im Interview (Vertrauen etc.) und dem Interviewverlauf.

Es sind verschiedene Datenquellen zu unterscheiden:

a) externe Datenquellen (Daten über Kunden, Wettbewerber, Öffentlichkeit, Lieferanten, etc.)

b) interne Datenquellen (Daten, die von Mitarbeitern produziert werden; automatisch anfallende Daten aus der Buchhaltung, der Kostenrechnung, den verschiedenen Abteilungen, etc.)

Informationen sind verdichtete, sortierte, gruppierte, analysierte oder interpretierte Daten. Sie haben einen höheren Wert bzw. einen höheren Nutzen als Daten. Die "Verarbeitung" der Daten ist für quantitative und qualitative Daten unterschiedlich. Für den quantitativen Bereich sind Techniken des data mining (Daten in Beziehung setzen, um nützliche und wiederverwendbare Informationen zu generieren) relevant, wie z. B. Clusteranalysen, Zeitreihenanalysen. Die Verfahren zur Verarbeitung qualitativer Daten sind im Unterschied zu denen quantitativer Daten weniger standardisierbar.

Für qualitative Informationen sind zwei Fragenkomplexe zu beachten:

a) Informationsgenerierung: Welche Methoden sind zur Aggregierung qualitativer Daten im Kontext von Knowledge Management geeignet (z. B. ATLAS.ti auf der Basis der Grounded Theory)?

b) Welchen Qualitätskriterien sollten die Verfahren zur Verdichtung (Interpretationsverfahren) genügen?

Wissen ist Information mit hohem Wert, weil jemand zu der Information Kontext, Bedeutung weitere Implikationen etc. hinzugefügt hat. Wissen ist ein Produkt, analog zu anderen in Unternehmen hergestellten Produkten. Damit man von Wissen sprechen kann, muss der Konsument von Wissen (z. B. Marketingleiter, Produktmanager) dem Wissen einen Wert beimessen. Letztendlich kann über den Wert bzw. die Qualität von Wissen nur aus der Perspektive der Wissenskonsumenten bzw. Wissensnutzer entschieden werden. Damit ist zugleich das Problem verbunden, dass je nach Anwendung bzw. Nutzer unterschiedliche Vorstellungen darüber existieren, was eine hohe Qualität von Wissen ist. Qualität von Wissen ist demnach relativ. Wird Wissen als Produkt, das wie jedes Produkt, einem Produktzyklus unterliegt betrachtet, so muss Wissen immer wieder aktualisiert werden. Wissen ist ein wertvolles Vermögen des Unternehmens. Wissen hat demnach aus Sicht des Unternehmens nur dann einen Wert, wenn es wirtschaftlich nutzbar ist (z. B. zur Verbesserung der Wettbewerbsposition).

Knowledge Mining, analog zum Data Mining, ist ein Prozess um valides, neues und umfangreiches Wissen aus einer Vielzahl von Informationen und Informationsquellen zu generieren. Metaanalysen von gefilterten Informationen bilden eine typische Knowledge Mining Anwendung.

Um Informationen in Wissen zu überführen müssen geeignete Formen für die Repräsentation, Darstellung oder Aufbereitung der Informationen bzw. des Wissens und für das Abrufen (Retrieval) von Daten, Informationen und Wissen gefunden werden, mit dem Ziel, darüber eine höhere Verwertbarkeit der Informationen zu erreichen.

Wissen in einem Unternehmen kann explizit (formuliert in einer formalen systematischen Sprache) oder implizit (personengebunden, kontextspezifisch und daher kaum kommunizierbar und formalisierbar) sein. Implizites Wissen ist oft die Grundlage für "core competences" des Unternehmens, die aufgrund der Impliziertheit auch vom Wettbewerb nur schwer imitiert werden können.

Das Explizieren impliziten Wissens (z. B. Expertenwissen) und die Verlagerung dieses Wissens von der individuellen auf eine organisatorische Ebene ist eine Aufgabe von Knowledge Management. Wissensgenerierung und -strukturierung mit den Methoden der qualitativen Sozialforschung dient dazu, interne wie externe Informationspotentiale besser ausschöpfen zu können sowie einem organisationellem Vergessen als Verlust der wertvollen Ressource Wissen entgegenzuwirken.



site by ringmayr interNet | hyperMedia
Home Email
(c)2001 thinksupport