Add Thesis

Einkauf 4.0

Written by S. Gottge, T. Menzel

Paper category

Master Thesis

Subject

Business Administration>Supply Chain & Logistics

Year

2017

Abstract

Masterarbeit Einkauf 4.0: Im folgenden Kapitel werden zunächst die Hintergründe zu Industrie 4.0, dem Einkauf sowie der Automobilindustrie dargestellt. Darauf aufbauend werden die Relevanz des Themas, bestehende Forschungslücken und aufkommende Fragen diskutiert und in Forschungsfragen und -ziele übersetzt. Am Ende des Kapitels wird der Aufbau dieser Masterarbeit skizziert.1.1HintergrundIn den letzten Jahrzehnten hat sich die Informationstechnologie rasant entwickelt und die Geschäftswelt verändert. Während zu Beginn des 21. Jahrhunderts die Bedeutung von Computern und Internet zunahm, begann die dritte industrielle Revolution mit der Digitalisierung der Produktion (Zhou, et al., 2015).Heutzutage entwickelt sich die Informationstechnologie so schnell, dass man davon ausgeht, dass die vierte industrielle Revolution bereits stattgefunden hat (Prause, et al., 2016).Diese Revolution wird durch Kräfte ausgelöst, die sowohl als Kunden-Pull als auch als Technologie-Push beschrieben werden können. Auf der einen Seite sorgen kürzere Entwicklungszyklen, Individualisierung auf Nachfrage, Flexibilität in der Produktion und die erforderliche Ressourceneffizienz für diese Revolution in der Fertigung (Lasi, et al., 2014). Auf der anderen Seite treiben technologische Entwicklungen wie zunehmende Automatisierung, Digitalisierung und Vernetzung die Kundenerwartungen in Richtung der vierten industriellen Revolution (Forstner & Dümmler, 2014). Diese Revolution wird oft als "Industrie 4.0" bezeichnet, ein Schlüsselbegriff, der von der deutschen Regierung stark gefördert wird (Schlechtendahl, et al., 2015). Vereinfacht kann sie als Organisation von produktionsbezogenen Prozessen auf der Grundlage von Technologien und Geräten beschrieben werden, die autonom miteinander kommunizieren und entlang der Lieferkette interagieren (Smit, et al., 2016). Die sogenannte "SmartFactoryKL" ist ein Beispiel für die Anwendung von Industrie 4.0-Konzepten, die zu hoch integrierten, selbstgesteuerten Abläufen führen (Qin, et al., 2016). Diese "Smart Factories" sind stark mit Sensoren und autonomen Systemen ausgestattet. Cyber-Physical Systems" verschmelzen die physische mit der digitalen Ebene, während das "Internet der Dinge" die Interaktion zwischen Maschinen und/oder Menschen ermöglicht. Big Data & Business Intelligence extrahieren wertvolles Wissen aus komplex strukturierten, großen Datensätzen. Neben den Veränderungen in der Produktion ermöglichen neue Vertriebs- und Einkaufssysteme In Anbetracht dieser Möglichkeiten wird die Anwendung von Industrie 4.0 in der Automobilindustrie zu hochdynamischen Abläufen führen, bei denen individualisierte Fahrzeuge zu "intelligenten Produkten" werden, die die Montage in einem entkoppelten, vollständig flexiblen und integrierten Produktionsnetzwerk autonom koordinieren (Kagermann, et al., 2011). Auf der Grundlage dieser technologischen Verbesserungen bedeutet Industrie 4.0 eine Steigerung der Effizienz, Qualität und Flexibilität für Unternehmen (Albers, et al., 2016; Weyer, et al., 2015; Broy, et al., 2010). Zhou et al. (2015) behaupten, dass die deutsche Elektronikindustrie aufgrund von Industrie 4.0 mit einer Produktivitätssteigerung von 30 % rechnet. Nach Angaben des Beratungsunternehmens Roland Berger ist zu erwarten, dass Industrie 4.0 in der Automobilindustrie den ROCE (Return on Capital Employed) um 25 % steigern und die Marge verdoppeln wird (Roland Berger, 2016). Dies steht im Einklang mit Albers et al. (2016), die feststellen, dass verschiedene Studien auf eine Produktivitätssteigerung von bis zu 50 % hinweisen. Diese Vorteile beruhen auf der Automatisierung von Prozessen, einer größeren Menge an gesammelten und zugänglichen Daten, einer einfacheren und schnelleren Nutzung von Daten und einer Konzentration auf wichtige Aufgaben (Weyer, et al., 2015). Der Informationsaustausch in Echtzeit in Kombination mit einer verbesserten Datenverarbeitung ermöglicht zudem eine schnellere und flexiblere Planung und Reaktion auf Probleme (Weyer, et al., 2015; Zhou, et al., 2015).Gleichzeitig nimmt die Bedeutung des Einkaufs, also der aktiven Verwaltung externer Ressourcen, für die Gesamtleistung des Unternehmens weiter zu (Spina, et al., 2013). Outsourcing, Globalisierung und die Umstellung von arbeitsintensiver Produktion auf maschinelle Fertigung können als Hauptgrund für die zunehmende Bedeutung solider Einkaufsprozesse angesehen werden (Ferreira, et al., 2015; Spina, et al., 2013). Schneider und Wallenburg (2013) weisen darauf hin, dass die Materialkosten heutzutage mehr als 50 % der gesamten Unternehmenskosten ausmachen. Wu und Chen (2015) gehen sogar davon aus, dass der Wert der eingekauften Materialien 60-80 % des Umsatzes in Fertigungsunternehmen ausmacht, wobei die Automobilindustrie an der Spitze liegt. Durch die Nutzung von Einkaufspotenzialen streben Unternehmen daher nach niedrigsten Kosten, höchster Qualität und geringem Risiko bei gleichzeitiger Realisierung von Synergien zur Steigerung der Individualisierung von Produkten, die in komplexen Wertschöpfungsnetzwerken entwickelt und hergestellt werden (Feng & Zhang, 2017; Panagiotidou, et al., 2017; Pascual, et al., 2017). Die zunehmende 3Kundenanpassung und kurze Produktlebenszyklen erfordern schnelle Reaktionszeiten, was eine Herausforderung für den heutigen Einkauf darstellt (Rosar, 2017). Die schiere Masse an Informationen und Kommunikation, die Einkäufer für strategische und operative Tätigkeiten bewältigen müssen, nimmt stetig zu und stellt eine weitere immense Herausforderung dar (Schneider & Wallenburg, 2013). Dies wirkt sich auf alle Teilprozesse des strategischen Prozesses von der Definition von Spezifikationen und der Lieferantenauswahl bis hin zu Verhandlungen und Vertragsvereinbarungen sowie auf den operativen Einkaufsprozess, bestehend aus Bestellung, Auftragsabwicklung und Bewertungen, aus (van Weele, 2014). Am stärksten betroffen von diesen Entwicklungen ist die Automobilindustrie, die einerseits für ihre Vorreiterrolle hinsichtlich innovativer Fertigungsstrategien bekannt ist und andererseits aufgrund von Auslagerungsquoten von bis zu 80% hocheffiziente Einkaufsprozesse benötigt (Stock & Seliger, 2016; Kagermann, 2015; Zhou, et al., 2015). 1.2ProblemdiskussionDie sich verändernden Fertigungsstrategien erfordern eine Umsetzung in vernetzte Supply Chain Management Praktiken. Nach Robolledo und Jobin (2013) bilden Einkauf und Fertigung hierbei den Kern der Lieferkette und benötigen folglich eine strategische Ausrichtung und Konsistenz.Die zunehmende Anzahl von Veröffentlichungen im Bereich Industrie 4.0 und die öffentliche Aufmerksamkeit für dieses Thema verdeutlichen den Einfluss von Industrie 4.0 auf die zukünftige Geschäftswelt. Dennoch gibt es neben diesen allgemeinen und in vielen Fällen sehr technischen Veröffentlichungen zu Industrie 4.0 nur wenige Forscher, die Industrie 4.0 in einer ganzheitlicheren Weise betrachten. Hecklau et al. (2016) beispielsweise konzentrieren sich auf den möglichen Einfluss auf die Humanressourcen. Andere Autoren verbinden Industrie 4.0 mit Lean Manufacturing (Sanders, et al., 2016; Kolberg & Zühlke, 2015), Logistik (Schuhmacher & Hummel, 2016)oder bestimmten Branchen (Li, 2016; Oesterreich & Teuteberg, 2016).Dennoch besteht weiterer Forschungsbedarf, der den Einfluss von Industrie 4.0 auf andere Bereiche untersucht (Lasi, et al., 2014). Insbesondere die disziplinübergreifende Zusammenarbeit ist kaum erforscht. Kagermann et al. (2011), die die Industrie 4.0-Bewegung im Jahr 2011 initiiert haben, beschreiben als Hauptvorteil Optimierungspotenziale für die Fertigung und die damit verbundenen Supply Chain Funktionen. Diese Vorteile ergeben sich vor allem aus einer optimalen Ressourcenauslastung und kurzen Reaktionszeiten, die auch für eine wettbewerbsfähige Beschaffungskonfiguration entscheidend sind 4(Rosar, 2017). Während einige verknüpfte Funktionen bereits erforscht sind, wie z.B. Logistik 4.0, fehlt es im Einkauf 4.0 noch an einer klaren Definition und einer entsprechenden Analyse der Einflussfaktoren (Schuhmacher & Hummel, 2016). Die zunehmende Relevanz und die Herausforderungen, denen sich der Einkauf stellen muss, erfordern innovative Lösungen. Während die Bedeutung einer verbesserten Nutzung von Kommunikation, Transparenz und Technologien im Einzelnen häufig thematisiert wird, muss die Einführung des Einkaufs ganzheitlicher betrachtet werden (Spina, et al., 2013; Glock & Hochrein, 2011). Die Erforschung der Einflussfaktoren von Industrie 4.0 auf den Einkauf in der Automobilindustrie bietet neue Ansätze, um mit vielen der zuvor genannten Aspekte umzugehen (Köle & Bakal, 2017; Papakonstantinou & Bogetoft, 2017; Bag, 2016; Knight, et al., 2016; Chang, et al., 2013).Die zuvor genannte Erwartung wird durch Beratungsberichte und Fachzeitschriften bestätigt, in denen die Potenziale von Industrie 4.0 basierten Einkaufsanpassungen diskutiert werden. Exemplarische Beiträge sind: PwC (PwC, 2014), Accenture (Nowosel, et al., 2015)und Beschaffung aktuell (Mohr, 2016). PwC behauptet, dass 81 % der befragten Einkaufsleiter erwarten, dass Einkauf 4.0 auf Industrie 4.0 folgen wird (PwC, 2014). Darüber hinaus zeigt eine Studie des BME, dem Bundesverband für Supply Chain Management, Beschaffung und Logistik, dass 37 % der deutschen Unternehmen bereits Elemente von Industrie 4.0 umgesetzt haben. Doch nur ein Drittel von ihnen wendet bisher Anpassungen im Einkauf an (Pellengahr, et al., 2016). Wie diese Anpassungen den Einkauf prägen, lässt sich am besten durch die Betrachtung des Einkaufsprozesses erforschen. Die Prozessperspektive erlaubt es dabei, die eher abstrakten Vorstellungen von Einflüssen in konkrete Veränderungen bis hinunter auf die Handlungsebene zu übersetzen. Da die Einflüsse von Industrie 4.0 nicht für jede Branche verallgemeinert werden können, ermöglicht die Prozesssicht eine weitere Betrachtung von branchenrelevanten Merkmalen. Diese Prozessorientierung wird durch die aktuelle Forschung bestätigt, die eine Fokussierung auf solide Einkaufsprozesse als kritische Voraussetzung für den zukünftigen Erfolg fordert (Yu, et al., 2017; Knight, et al., 2016).Aufgrund der Reife der Fertigungspraktiken sowie der Bedeutung effizienter Einkaufsprozesse stellt die Automobilindustrie die beste Ausgangsbasis dar, um Einflüsse und Prozessveränderungen im Sinne von Einkauf 4.0 zu untersuchen (Stock & Seliger, 2016; Kagermann, 2015; Zhou, et al., 2015). Die Automobilbranche umfasst alle 5Formen von Kraftfahrzeugen aus verschiedenen Branchen und lässt sich in Automobilhersteller, Automobilzulieferer sowie Vertriebsorganisationen unterteilen(Wei, et al., 2008). In Anbetracht des Schwerpunkts auf den Einkauf werden in dieser Studie nur Automobilhersteller und -zulieferer untersucht. In Anbetracht der Herausforderungen und der wachsenden Bedeutung des Einkaufs in der Automobilindustrie sowie der unerforschten, disziplinübergreifenden Potenziale von Industrie 4.0 ist die Kombination dieser Bereiche für die künftige Forschung in diesem Bereich entscheidend. 1.3Ziel & ForschungsfrageDas Ziel dieser Masterarbeit ist es, den Einfluss von Industrie 4.0 auf den Einkauf bei Automobilherstellern zu untersuchen und ein visionäres Modell des Einkaufsprozesses im Kontext von Einkauf 4.0 abzuleiten. Dies geschieht durch die Beantwortung der Forschungsfragen zu: RQ1: Wie wird Industrie 4.0 den Einkauf von Automobilherstellern beeinflussen?RQ2: Wie wird Einkauf 4.0 den Einkaufsprozess von Automobilherstellern umgestalten?1.4EinschränkungenDer Umfang der Forschung ist auf die europäische Automobilindustrie beschränkt. Der geografische Fokus wird gesetzt, da Industrie 4.0 ein Konzept darstellt, das vor allem in Deutschland und angrenzenden Regionen bekannt ist, während der Branchenfokus aufgrund der hohen Relevanz von Industrie 4.0 in der Automobilindustrie gesetzt wird. Um einen spezifischen Beschaffungsrahmen zu generieren, wird der Beschaffungsprozess auf den für den Automobileinkauf relevantesten Bereich, den direkten Einkauf von Material für die Serienproduktion, beschränkt. 1.5Struktur & HerangehensweiseNach den einleitenden Ausführungen wird ein theoretisches Fundament von Industrie 4.0 und Einkauf gelegt (siehe Abbildung 1). Innerhalb des 'Frame of Reference' wird das jeweilige konzeptionelle Verständnis für die Untersuchung operationalisiert und das Untersuchungsmodell dargestellt. Basierend auf empirischen Daten von Automobilherstellern und -zulieferern werden eine empirische Beschreibung von drei Fallstudien und die grundlegenden empirischen Erkenntnisse dargestellt. Das folgende Kapitel geht auf die Forschungsfragen ein. Dazu werden zunächst Einzelfälle analysiert, die anschließend durch eine Queranalyse ergänzt werden. 6empirisches Material aus Experteninterviews. Die fallübergreifende Analyse von RQ1 verallgemeinert dabei ein Einkauf 4.0-Verständnis, während RQ2 eine Vision für einen "smarten Einkaufsprozess" liefert. Abschließend werden die Ergebnisse diskutiert und kritisch reflektiert, bevor ein Fazit gezogen wird. Abbildung 1: Forschungsdesign 72MethodikIm Kapitel Methodik werden die zugrundeliegenden methodischen Entscheidungen diskutiert und vorgestellt. Um die methodische Eignung insgesamt zu gewährleisten, werden die Entscheidungen von der Philosophie bis zur Forschungsqualität aufgeschlüsselt. Darüber hinaus werden ethische Überlegungen innerhalb der Forschung vorgestellt.2.1Forschungsphilosophie & Paradigmen Die Forschungsphilosophie bezieht sich auf die Entwicklung und die Natur des Wissens (Saunders, et al., 2016). Guba und Lincoln (1998) beschreiben, dass die Forschungsphilosophie stark von den grundlegenden Glaubenssystemen beeinflusst wird, die auf epistemologischen und ontologischen Annahmen basieren. Vereinfacht ausgedrückt handelt es sich dabei um die Weltanschauung der Autoren in Bezug auf legitime Forschung. Die Epistemologie befasst sich damit, was als akzeptables Wissen angesehen werden kann (Bryman & Bell, 2011). Die ontologischen Annahmen hingegen betreffen die Form und das Wesen der Realität (Guba & Lincoln, 1998). In Anbetracht dieser grundlegenden Fragen ist eine enge Wechselbeziehung zu beachten, da die Forschungsmethoden zur entsprechenden vorgegebenen Methodik passen müssen. Die wichtigsten Forschungsparadigmen sind Positivismus, Postpositivismus, kritische Theorie und Konstruktivismus (Eriksson & Kovalainen, 2016). Die positivistische Forschungsphilosophie zeichnet sich durch eine objektive Sicht auf die Forschungsphänomene aus (Ontologie), wobei der Forschungsprozess wenig mit persönlichen Bindungen verbunden ist (Epistemologie). Positivistische Forscher streben eher nach Erklärungen als nach Interpretationen (Bryman & Bell, 2011). Der Postpositivismus könnte als reformierte Version des Positivismus beschrieben werden, die kritischer ist, was die zugrundeliegenden Annahmen betrifft. Die kritische Theorie lehnt sich sogar an konstruktivistisches Denken an, wobei es um die Identifizierung von Strukturen der Welt geht (Eriksson & Kovalainen, 2016). Auf der anderen Seite des Spektrums der Forschungsmetaphysik findet sich der Konstruktivismus, eine dominante Form des Interpretivismus (Eriksson & Kovalainen, 2016). Dieses Glaubenssystem ist stark geprägt von einer subjektivistischen Sichtweise (Epistemologie), der Berücksichtigung von Relativismus und lokalen/spezifischen konstruierten Wirklichkeiten (Ontologie) und einer hermeneutischen Methodologie (Guba & Lincoln, 1998). Das bedeutet, dass Realitäten als nicht greifbare, lokale, mentale Konstruktionen betrachtet werden, die von der Person abhängen, die diese Konstruktionen besitzt. Die Wirklichkeit ist also nicht "weniger wahr", sondern anders 8sophisticated. Der Forscher wird als interaktiv mit dem Forschungsobjekt verbunden betrachtet. Daher werden die Ergebnisse von den Forschern geschaffen. Methodisch ergeben sich daraus individuelle Konstruktionen zwischen und unter Forscher und Gegenstand. Durch hermeneutische Techniken können Interpretationen vorgenommen, verglichen und kontrastiert werden (Guba & Lincoln, 1998). Die Hermeneutik, als Schlüsselmethodik des Konstruktivismus, zielt darauf ab, Texte als Interaktionen zu verstehen. Die Bedeutung wird dabei durch die Berücksichtigung des Lesers (Forschers), aber auch des Textproduzenten (Teilnehmers) erzeugt. Folglich müssen die Ergebnisse von Feinanalysen in Relation zur Lesesituation gesehen werden (Mayring, 2014). Motiviert durch das Ziel dieser Masterarbeit, ein reales Phänomen zu erforschen und zu verstehen, um allgemeine Informationen zu generieren und ein abstraktes Modell aus der Konstruktion zu erstellen, wird eine relativistische Ontologie innerhalb des konstruktivistischen Paradigmas vorausgesetzt. Die Forscher streben ein besseres Verständnis des Phänomens an, indem sie dessen Merkmale interpretieren. Anstatt eine absolute Wahrheit anzustreben, wird ein Verständnis durch die Berücksichtigung der zugrunde liegenden Umstände geschaffen. Unter Berücksichtigung der Grundannahmen des Konstruktivismus von Berger und Luckmann (1967) ermöglicht dieses Paradigma die kritische Betrachtung von selbstverständlichem Wissen und scheinbar objektiven Strukturen und Prozessen und fördert gleichzeitig eine enge Beziehung zwischen Forschungsfeld und Forscher. Darüber hinaus ermöglicht dieses Paradigma die Analyse sozialer Handlungen vom Standpunkt der Akteure aus (Tracy, 2013), was für diese Forschung angesichts der zahlreichen Perspektiven, die einbezogen werden, von großer Bedeutung ist. 2.2ForschungsstrategienIn Bezug auf die Forschungsstrategie müssen verschiedene Unterscheidungen getroffen werden. Erstens kann die Beziehung zwischen dem Wissen und dem Problem unterschieden werden. Explorative Forschung wird durchgeführt, wenn wenig über ein Phänomen bekannt ist, mit dem Ziel, die Natur eines Problems besser zu verstehen (Sekaran, 2003). Deskriptive Studien hingegen beschreiben die Merkmale der Variablen, die in einer bestimmten Situation von Interesse sind (Sekaran, 2003). Erklärende Forschung zielt darauf ab, die Beziehungen zwischen Variablen zu erklären, um ein Problem oder eine Situation eingehend zu untersuchen (Saunders, et al., 2016).Da die Wissensbasis dieser Forschung nicht als reichhaltig genug angesehen werden kann, muss sie als explorative Forschung betrachtet werden. In Übereinstimmung mit Yin (2014) werden jedoch vor der Datenerhebung eine klare Idee und ein klarer Zweck sowie Explorationskriterien entwickelt. 9Zweitens muss eine Unterscheidung hinsichtlich der Datengrundlage getroffen werden. In dieser Hinsicht befasst sich die quantitative Forschung mit numerischen Daten und ist meist mit einem deduktiven Ansatz verbunden, um Theorien zu testen (Saunders, et al., 2016). Qualitative Forschung hingegen zielt darauf ab, das "Wie" (Prozesse) und "Warum" (Bedeutung) hinter Phänomenen zu erforschen (Cooper & Schindler, 2011). Bei der Entscheidung, welche Forschungsstrategie für die Forschung geeignet ist, sollte man die Hauptunterschiede zwischen qualitativer und quantitativer Forschung berücksichtigen: Qualitative Forschung verwendet Worte, während quantitative Forschung Zahlen verwendet; qualitative Forschung konzentriert sich auf die Bedeutung, während quantitative Forschung das Verhalten betrachtet; qualitative Forschung basiert auf der Logik induktiver Untersuchungen, während quantitative Forschung hypothetisches, deduktives Denken unterstützt. Schließlich ist die qualitative Forschung weniger in der Lage, Verallgemeinerungen zu erzielen (Brannen, 2007). In Anbetracht der Neuartigkeit des untersuchten Phänomens und der Konzentration auf Prozesse ist eine explorative qualitative Forschung am besten geeignet. Dies entspricht auch der Art der Forschungsfragen, bei denen es darum geht, zu untersuchen, wie der Einkauf beeinflusst und der Einkaufsprozess umgestaltet wird. Darüber hinaus bietet die durchgeführte Forschung zum gegenwärtigen Zeitpunkt keine Möglichkeit zur Quantifizierung und Überprüfung von Hypothesen. 2.3ForschungsansatzAufgrund der Art der Forschung in einem Bereich und des Einflusses der bestehenden Theorie auf das Thema kann ein deduktiver, induktiver oder abduktiver Ansatz verwendet werden (Saunders, et al., 2016). Die Induktion geht von der empirischen Forschung zu theoretischen Ergebnissen über (Eriksson & Kovalainen, 2016). Dieser Ansatz zeichnet sich durch eine höhere Flexibilität und ein geringeres Maß an vordefinierten Strukturen aus und ist meist mit qualitativer Forschung verbunden. Kaum eine Forschung stellt einen rein induktiven Ansatz dar, da meist eine Form des vorherigen theoretischen Verständnisses von Phänomenen vorhanden ist (Perry, 1998). Die Deduktion stützt das Wissen auf die Theorie als erste Wissensquelle. Das bedeutet, dass die Theorie die Forschung leitet (Bryman & Bell, 2011). Auf der Grundlage dessen, was theoretisch bekannt ist, können Hypothesen oder Propositionen getestet/geleitet werden. (Eriksson & Kovalainen, 2016). Abduktion wird oft als Kombination aus induktivem und deduktivem Forschungsansatz bezeichnet. Sie geht von grundlegenden Beschreibungen und Bedeutungen zu Erklärungen von Phänomenen über (Eriksson & Kovalainen, 2016). Die Kombination von induktiven und deduktiven Ansätzen kann daher oft als vorteilhaft angesehen werden (Saunders, et al., 2016). 10Die durchgeführte Forschung kann weder als rein induktiv noch als deduktiv eingestuft werden. Sie kann als deduktive Forschung mit induktiven Elementen betrachtet werden. Aufgrund des deduktiven Ansatzes, auf dem die Forschung basiert, gibt es eine theoretische Grundlage und eine vorläufige Vorstellung über die Beziehungen zwischen den Konzepten (Saunders, et al., 2016). Es wird nach kausalen Beziehungen gesucht, allerdings im Rahmen eines weniger strukturierten Operationalisierungsansatzes, um alternative Erklärungen zu ermöglichen. Der induktiven Logik folgend, wird durch die Analyse ein Verständnis der gesammelten Informationen geschaffen und eine Art konzeptioneller Rahmen formuliert. Während die Studie vor der Datenerhebung angelegt wurde (Deduktion), wurden die empirischen Daten in einem längeren Zeitrahmen von acht Wochen erhoben, was eine iterative Beeinflussung der Folgeinterviews ermöglichte (induktiv). 2.4Forschungsdesign und -methodeIn der Sozialforschung gibt es eine Vielzahl unterschiedlicher Methoden. Zu den häufig verwendeten Methoden gehören: Umfragen, Fallstudien, Experimente, Ethnografie, Aktionsforschung, Grounded Theory und viele andere. Bei der Wahl der Forschungsmethodik ist darauf zu achten, dass sie das Erreichen der einzelnen Forschungsziele erleichtert (Quinlan, 2011). Fallstudien können als eingehende Untersuchung von begrenzten Einheiten definiert werden (Quinlan, 2011). Eriksson und Kovalainen (2016) beschreiben, dass sowohl Einzel- als auch Mehrfach-Fallstudien geeignet sind, um Fragen zu untersuchen, die mit industriellen Bereichen in Unternehmen zusammenhängen. Zu den Hauptthemen gehören Auswirkungen auf Branchen sowie Prozesse und Veränderungen in Organisationen. Dubois und Araujo (2007) erwähnen in diesem Zusammenhang die hohe Relevanz von Fallstudien im Bereich des Einkaufs- und Lieferkettenmanagements. Dies lässt sich durch die Vorteile für die Forschung in Unternehmensnetzwerken erklären, da Herausforderungen wie Grenzen, Komplexität und Fallvergleiche berücksichtigt werden können (Halinen & Törnroos, 2005). Einzelfallstudien sind am besten geeignet, wenn es sich bei dem Phänomen wahrscheinlich um ein seltenes oder spezifisches Phänomen handelt, da sie eine eingehende Analyse ermöglichen (Yin, 2014). Der Einkauf kann in vielen Unternehmen als sehr relevant angesehen werden, während die Bedeutung effizienter Prozesse in stark ausgelagerten Branchen wie dem Automobilsektor besonders kritisch ist (Schmitz & Platts, 2004). Industrie 4.0 mit ihren hochinnovativen Tendenzen ist nicht auf ein bestimmtes Fallunternehmen beschränkt, sondern findet sich in ganzen Branchen wieder, insbesondere in der Automobilindustrie. Dennoch erfordert die Thematik eine vertiefte Betrachtung sowie die Berücksichtigung von interagierenden Parteien innerhalb eines Unternehmens und sogar 11einer vernetzten Lieferkette. Um die unterschiedlichen Kontexte und Rahmenbedingungen innerhalb dieser Branche zu berücksichtigen und weitere Verallgemeinerungen zu ermöglichen, werden in dieser Untersuchung mehrere Fälle innerhalb der Automobilindustrie betrachtet, genauer gesagt wird die Untersuchung als eingebettete multiple Fallstudie durchgeführt, was bedeutet, dass multiple Fallstudien mehrere Analyseeinheiten für jeden Fall enthalten (Yin, 2014). Die Analyseeinheiten können als Schnittstelle zwischen Einkauf und Verkauf innerhalb von Dyaden beschrieben werden (im folgenden Kapitel erläutert). 2.5Population & StichprobeDie Population für diese Untersuchung umfasst eine Untergruppe der europäischen Automobilindustrie. Diese Untergruppe umfasst Automobilhersteller und -zulieferer. Da es sich um eine Fallstudie handelt, wird eine Nicht-Wahrscheinlichkeitsstichprobenmethode gewählt (Saunders, et al., 2016). Um eine angemessene Anzahl von Teilnehmern zu erreichen, wurden zwei gängige Arten von Nicht-Wahrscheinlichkeitsstichproben gemischt, nämlich zielgerichtete Stichproben und Schneeballsysteme. Das angewandte zielgerichtete Sampling zielt darauf ab, die Teilnehmer einzubeziehen, die für die Beantwortung der Forschungsfragen erforderlich sind. Dabei wird eine Vielzahl von Teilnehmern einbezogen, die sich in Bezug auf ihre Eigenschaften unterscheiden (Bryman & Bell, 2015). Wenn die Teilnehmer in irgendeiner Form als Fallpromotoren fungieren konnten, wurden sie darüber hinaus gebeten, den Forschungsvorschlag an andere potenzielle Teilnehmer weiterzuleiten, was zu einem Schneeballsystem führt (Cooper & Schindler, 2011). Im Vorfeld wurden klare Stichprobenkriterien festgelegt, die Hersteller und Zulieferer auf Organisationen mit bewusstem Bezug zu Industrie 4.0 beschränkten. Darüber hinaus wurden Branchenexperten (Fallunterstützung) auf der Grundlage aktueller Veröffentlichungen und Aussagen in Fachzeitschriften und Online-Publikationen ausgewählt. Durch diese Vorgehensweise werden durch die Erstansprache von 62 potenziellen Forschungspartnern 23 Teilnehmer gewonnen.Forschungsgegenstand dieser Studie sind Dyaden, in Anlehnung an die Erkenntnisse der Forschung entlang der Käufer-Lieferanten-Beziehung in der Automobilindustrie (Pereira, et al., 2011). Vier Dyaden werden dabei in drei Fälle strukturiert, die auf einem fokalen Unternehmen, dem Automobilhersteller, basieren. Jeder Fall umfasst Interviews mit dem Management und den Einkäufern des Automobilherstellers sowie mit vertriebsbezogenen Funktionen bei den Zulieferern (siehe Abbildung 2). 12Abbildung 2: ForschungsobjektEs wurden insgesamt 18 Fallteilnehmer aus sieben Unternehmen gewonnen (siehe Tabelle 1). Zur Validierung fallübergreifender Analysen wurden fünf Experten befragt, davon vier Berater und ein Vertreter eines öffentlichen Instituts (siehe Tabelle 2).OrganisationPositionFall ACFall BCFall CTotalHerstellerManagement3317HerstellerEinkäufer2125ZuliefererVertriebsbezogen2226Total-76518Tabelle 1: Übersicht FallteilnehmerOrganisationPositionFallübergreifendBeratungEinkaufsexperte4InstitutEinkaufsforscher1Total-5Tabelle 2: Übersicht Experten (Case Support)Die geführten Interviews variierten zwischen 30 und 105 Minuten. Die Gesamtstichprobe umfasst 20 Stunden Interviews, die selektiv transkribiert wurden und das gesamte für die Analyse berücksichtigte Material darstellen.2.6Datenerhebungsmodell und -instrumentEmpirische Daten können durch verschiedene Techniken sowohl für qualitative (numerische) als auch für quantitative (nicht-numerische) Daten erhoben werden (Bryman & Bell, 2015). Qualitative Fallstudienforschung sammelt empirische Daten meist durch Beobachtungen, Interviews und Dokumentenanalyse (Denzin und Lincoln, 1998). 13Eriksson und Kovalinen (2016) beschreiben, dass sich interviewbasierte Forschung besonders gut für explorative Forschung eignet. Daher werden halbstrukturierte Interviews durchgeführt, die sich an mehrere Informanten von Herstellern, Lieferanten und Beratungsunternehmen richten. Halbstrukturierte Interviews können als skizzierte Interviews mit vorbereiteten Schlüsselfragen beschrieben werden, die das Gespräch leiten (Saunders, et al., 2016). Den Forschungsteilnehmern wurde ein Interviewleitfaden zur Verfügung gestellt, damit sie sich auf das Gespräch vorbereiten konnten, da das Thema recht komplexe und technische Konzepte darstellt. Um das richtige Verständnis zu gewährleisten, wurde der Interviewleitfaden an einem potenziellen Forschungsteilnehmer getestet, was zu kleinen Anpassungen in Wortlaut und Struktur führte. Die Interviews wurden persönlich (10) oder telefonisch (13) durchgeführt. Triangulation, die Verwendung mehrerer Beweisquellen in der Forschung, wird für den Fallstudienansatz empfohlen (Yin, 2014). In Anbetracht der hohen Restriktionen in Bezug auf die Vertraulichkeit im Fallkontext sowie des begrenzten zeitlichen Umfangs des Forschungsprojekts konnten ausschließlich Interviews durchgeführt werden.Sekundärdaten wurden außerdem im Rahmen der Literaturrecherche gesammelt, wobei der Schwerpunkt auf Artikeln in Fachzeitschriften mit Peer-Review lag, aber auch auf Konferenzberichten und Arbeitspapieren, da das Thema einen sehr aktuellen Charakter hat. Insbesondere bei der Auswahl von Konferenzberichten wurde die Zuverlässigkeit der Quelle auf der Grundlage der Reputation der Institutionen und Autoren berücksichtigt. 2.7Methoden der DatenanalyseFür die qualitative Forschung können verschiedene Methoden der Datenanalyse eingesetzt werden (Yin, 2014). Qualitative Forschung weicht dabei von quantitativen Studien ab, da statistische Zusammenhänge kaum hergestellt werden können und eine statistisch ausreichende Größe der Antworten selten erreicht wird. Dies kann auch nicht als Hauptziel der qualitativen Forschung angesehen werden (Cooper & Schindler, 2011).Üblicherweise besteht eine qualitative Datenanalyse aus einer Form der Reduktion oder Vereinfachung der Daten, gefolgt von einem Schritt der Kombination, Interpretation oder Problemlösung (Eriksson & Kovalainen, 2016). Innerhalb des Konstruktivismus beruhen die Analysemethoden weitgehend auf hermeneutischen Ansätzen, die Texte als Interaktion zwischen den Vorstellungen des Forschers und den Absichten der Forschungsquellen verstehen. Analyse 14Methoden reichen von der objektiven Hermeneutik über die Grounded Theory bis hin zur Diskursanalyse (Mayring, 2014). Über diese traditionellen Methoden hinaus hat Mayring (2014) ein ausgeklügeltes System entwickelt, mit dem auch hochkomplexe Phänomene analysiert werden können. Die Grundidee von Mayrings Qualitativer Inhaltsanalyse (QCA) besteht dabei darin, "den Prozess der Zuordnung von Kategorien zu Textpassagen als qualitativ-interpretativen Akt zu konzeptualisieren, der inhaltsanalytischen Regeln folgt" (2014, S. 10). Ergänzt wird dieser Ansatz durch einen quantitativen Schritt der Analyse von Häufigkeiten von Kategorien. Die Grundprinzipien der Inhaltsanalyse sind: die Einbettung des Materials in den kommunikativen Kontext, ein systematisches, regelgebundenes Vorgehen bei der Textanalyse, die Fokussierung auf Kategorien, ein theoriegeleiteter Charakter der Analyse und die Integration quantitativer Analyseschritte (Mayring, 2014). Basierend auf mehreren Leitgedanken benötigt jede Forschung ihr eigenes, auf das Phänomen und die Forschungsfrage zugeschnittenes System.In der vorliegenden Forschung kann die Grundlage der Datenanalyse als selektive Protokolle bezeichnet werden, die fokussierte Interviewtranskripte darstellen (Mayring, 2014). Die kleinste Einheit des auszuwertenden Materials (Kodiereinheiten) sind einzelne Wörter innerhalb eines Interviews (Aufnahmeeinheit). Für jedes Interview wird im Vorfeld eine kurze Analyse der Ausgangssituation durchgeführt. Aufgrund der hohen Anzahl der zu berücksichtigenden Interviews werden die Interviews weiter paraphrasiert und auf das erforderliche Abstraktionsniveau reduziert (Mayring, 2014).Die eigentliche Inhaltsanalyse wird nach dem System der "Parallelverfahren" durchgeführt (siehe Abbildung 3). Das bedeutet, dass neben der induktiven Kategorienbildung auch eine deduktive Kategorienzuordnung vorgenommen wird. Die folgende Abbildung gibt einen Überblick über die Analyseschritte. Die deduktive Kategorienbildung basiert auf vordefinierten Kategorien, die nach der Operationalisierung im Bezugsrahmen in Unterkategorien detailliert werden. Die Forscher erstellen Kodierrichtlinien und gehen das Material in einem ersten Durchgang durch. Anschließend werden die Kategorien überarbeitet und die Kodierrichtlinien angepasst, bevor eine endgültige Durcharbeitung der Texte erfolgt. Abschließend werden die Kategorienhäufigkeiten und Kontingenzen interpretiert. Gleichzeitig wird eine induktive Kategorienbildung durchgeführt. Das bedeutet, dass während der Analyse der Texte neue Kategorien gebildet werden. Wenn ein ausreichendes Niveau an Kategorien erreicht ist, werden die Texte überarbeitet und die Vereinbarungen zwischen den Codierern 15 nachgearbeitet, bevor mit der endgültigen Durcharbeitung des gesamten Materials begonnen wird. Der letzte Schritt besteht auch hier aus einer Häufigkeitsanalyse und Interpretation. Abbildung 3: Paralleles Verfahren QCA (in Anlehnung an Mayring, 2014)Das Ergebnis dieser systematischen Inhaltsanalyse ist eine umfangreiche Datenbank für jeden Fall, die aus Kategorien, Unterkategorien und entsprechenden Häufigkeiten und Interpretationen besteht. Ein stark zusammengefasster Auszug daraus stellt die empirischen Befunde im AnhangA dar.Um robustere Befunde zu erhalten, wird eine fallübergreifende Synthese in Anlehnung an Yin (2014) durchgeführt. Dabei wird jeder Fall zunächst als separate Studie betrachtet. Durch die frühzeitige Bildung einheitlicher Kategorien werden fallübergreifende Schlussfolgerungen unter Berücksichtigung kontrastierender Fallkonstellationen gezogen. In Anlehnung an das fallübergreifende Forschungsverfahren von Yin werden alle Belege berücksichtigt, plausible konkurrierende Interpretationen angesprochen und der Fokus auf die wichtigsten Aspekte gelegt. Neben der Nutzung des eigenen Fachwissens der Forscher wird die Fallstudie von fünf Branchenexperten unterstützt (siehe Anhang C). 2.8Forschungsqualität Die Forschung orientiert sich an den Forschungskriterien für qualitative Forschungsprojekte nach Gauch (2003) und dem National Research Council (2002) und folgt den Grundregeln: Definition signifikanter Forschungsfragen, die eine empirische Untersuchung ermöglichen; Verknüpfung der Forschung mit der relevanten Theorie; Methodenanwendung, die direkt Untersuchungen ermöglicht; kohärente und explizite Argumentation sowie Replikation und Generalisierung über mehrere 16Studien. Diese Orientierung steht auch im Einklang mit Mayrings Idee der Bereitstellung ausreichender empirischer Daten für eine umfassende qualitative Forschungsanalyse. Gängige Instrumente der Forschungsqualität sind Reliabilität und Validität. Dabei stellt die Reliabilität eine Form der Konsistenz dar, die z.B. eine Reproduktion der Forschung mit gleichen Ergebnissen ermöglicht. Die Validität beschreibt darüber hinaus, inwieweit ein Instrument das beabsichtigte Phänomen gemessen hat (Verhoeven, 2010). In Anbetracht des konstruktivistischen Forschungsparadigmas werden die zuvor genannten eher positivistischen Kriterien in einen anderen Kontext übertragen. Folglich erfordert die gewählte Forschungsphilosophie und das qualitative Forschungsdesign eine angepasste Forschungsreflexion (Guba & Lincoln, 1998). In Übereinstimmung mit Guba und Lincolns (1998) Forderung nach angepassten Kriterien und Mayrings (2014) Verständnis einer breiteren Reflexion bietet Yin (2014) eine Qualitätsbewertung an, die auf Konstruktvalidität, externer Validität und Reliabilität basiert. Konstruktvalidität bedeutet im Verständnis von Yin (2014), die richtigen operationalen Maße für das Phänomen zu identifizieren. Externe Validität bezieht sich auf eine geeignete Definition des Forschungsbereichs, um Verallgemeinerungen zu finden. Reliabilität bedeutet ferner, dass die Operationen einer Studie wiederholt werden können und zu denselben Ergebnissen führen (Yin, 2014). In Übereinstimmung mit Yin (2014) wird die Konstruktvalidität dieser Studie durch eine klare Definition von Konzepten und die Identifizierung operativer Maßnahmen geschaffen, die im Bezugsrahmen dargestellt werden. Um die Konstruktvalidität zu erhöhen, werden mehrere Beweisquellen (Dyaden plus Fallunterstützung) berücksichtigt, eine Beweiskette durch iterative Argumentation (Aufbau von RQ2 auf RQ1) bereitgestellt und Überprüfungen durch die Teilnehmer verwendet. Externe Validität wird durch die frühzeitige Entwicklung von Forschungsfragen gewährleistet, um eine geeignete Theorie abzuleiten und die Erstellung erster theoretischer Propositionen zu ermöglichen. Außerdem wird die Übertragbarkeit auf der Grundlage der Replikationslogik durch eine fallübergreifende Analyse berücksichtigt. Bei der Betrachtung von Yins (2014) Forderung nach Reliabilität muss man die Implikationen berücksichtigen, die sich aus der konstruktivistischen Forschungsgrundlage der Studie ergeben. Wenn Yin auf die mögliche Reproduktion der gleichen Ergebnisse durch spätere Forscher verweist, entsteht ein Paradigmenkonflikt. Da das konstruktivistische Paradigma den Forscher als beeinflussendes Element der Forschung betrachtet, werden spätere Untersuchungen folglich zu 17unterschiedlichen Ergebnissen führen. Dieser Konflikt hat keinen weiteren Einfluss auf das letztendliche Ziel von Yins Reliabilitätsmaß, Fehler und Verzerrungen zu minimieren. Lediglich der Interviewer-Interviewer-Bias wird abweichend von Bryman und Bells (2015) Verständnis als unvermeidlicher Teil der Realitätskonstruktion betrachtet. Folglich dokumentiert die Studie in Übereinstimmung mit Yin streng die Verfahren durch den systematischen Analyseprozess der Qualitativen Inhaltsanalyse von Mayring. Darüber hinaus werden Fallstudienprotokolle und Datenbanken erstellt, durch die beide Forschungsfragen beantwortet werden. Da die Analyse von zwei Forschern gemeinsam durchgeführt wird, war eine Operationalisierung der Forschungsschritte unumgänglich, um Inter-Coder-Reliabilität zu schaffen (Mayring, 2014). Dieser Ansatz ermöglicht es, dass ein externer Forscher das Vorgehen der Studie potenziell wiederholen kann. Um die Reliabilität weiter zu fördern, werden nach Denzin und Lincoln (1998) Glaubwürdigkeit und Zuverlässigkeit durch eine sorgfältige Auswahl der Teilnehmer und die Berücksichtigung mehrerer Perspektiven berücksichtigt. Die Forschungsqualität umfasste auch Sekundärdaten, wobei der Schwerpunkt auf der Zuverlässigkeit lag. In Bezug auf Sekundärdaten kann die Zuverlässigkeit der Informationen stark durch die Autorität und den Ruf der Quellen beschrieben werden (Saunders, et al., 2016).2.9Ethik Ethik in der Forschung kann als Normen und Verhaltensstandards beschrieben werden, die moralische Entscheidungen leiten. Ethische Überlegungen in der Forschung konzentrieren sich insbesondere auf die Transparenz bei der Datenerhebung, -analyse und -veröffentlichung (Cooper & Schindler, 2011). Das übergeordnete ethische Ziel dieser Masterarbeit besteht darin, durch die Forschungsaktivitäten keine der beteiligten Parteien zu schädigen. Die Teilnehmer müssen daher über das Verfahren, ihre Rechte als Teilnehmer sowie über den beabsichtigten Umfang der Informationsnutzung informiert werden. Vor der Interaktion müssen Vereinbarungen über die Datenaufzeichnung und Vertraulichkeit getroffen werden (Saunders, et al., 2016; Bryman & Bell, 2011). Das Thema Vertraulichkeit ist im Kontext dieser Studie von großer Bedeutung, da Informationen über Kaufpraktiken sehr sensibel sein können. Daher wird eine Einverständniserklärung verwendet, um die Teilnehmer über die Forschung, die Datennutzung und die Veröffentlichungen zu informieren (siehe Anhang D). Je nach Wunsch des Teilnehmers wird die Vertraulichkeit in dem erforderlichen Umfang gewährleistet. Dies beinhaltet die Geheimhaltung von Firmennamen, Namen der Befragten, Aufzeichnungen und transkribierten Interviews (Easterby-Smith, et al., 2015). 18Aufgrund des allgemeinen Feedbacks der Forschungsteilnehmer werden Firmennamen, Positionen sowie Namen nicht offengelegt. Außerdem werden die empirischen Daten nur auf einer höheren Abstraktionsebene angegeben, um Konflikte zwischen den verschiedenen Parteien innerhalb der Fälle zu vermeiden. 2.10Zusammenfassung der methodischen EntscheidungenDie nachstehende Tabelle enthält eine zusammenfassende Darstellung aller methodischen Entscheidungen, die die wissenschaftliche Grundlage für das Forschungsprojekt bilden (siehe Tabelle 3). MethodikWahlForschungsparadigmaKonstruktivismusForschungsstrategieExplorativ, qualitativForschungsansatzDeduktiv mit induktiven ElementenForschungsdesignMehrfachfallstudiePopulation & StichprobenziehungNichtwahrscheinlichkeit (purposive, snow-ball)DatenerhebungsmodellInterviews (persönlich oder telefonisch)DatenanalysemodellQualitative Inhaltsanalyse, fallübergreifende AnalyseQualitätskriterien der ForschungKonstruktvalidität, externe Validität, ReliabilitätEthische AnmerkungenSchutz durch Einverständniserklärung und Anonymität. Read Less