Add Thesis

Exploration und Bewertung der Einsatzmöglichkeiten von Artificial Intelligence und Machine Learning- Systemen für die Arbeit der DZT

Written by Anonymous

Paper category

Bachelor Thesis

Subject

Business Administration>General

Year

2018

Abstract

Bachelorarbeit: Einführung in die Künstliche Intelligenz Nach der ersten Einführung in dieses Thema in Kapitel 1 nun eine umfassende Einführung in das Gebiet der Künstlichen Intelligenz und ihren aktuellen Stand. Es definiert relevante Schlüsselbegriffe und zeigt die historische Entwicklung der Künstlichen Intelligenz und deren Einsatzmöglichkeiten auf. 2.1 Schlüsselbegriffe der Künstlichen Intelligenz 2.1.1 Der weltweite Trend zu Künstlicher Intelligenz, Wissenschaft und Gesellschaft ist enorm (Jaekel, 2018; Pavaloiu, 2016). Es ist auch ein viel diskutierter Trend in Bezug auf Wirtschaft, Technologie und Gesellschaft (Gentsch, 2018). Der Autor von „Harvard Business Manager“ (2018) bezeichnete künstliche Intelligenz sogar als heute wichtigste Allzwecktechnologie und vergleicht sie mit der Erfindung der Dampfmaschine oder der Elektrizität (Brynjolfsson/Mcafee, 2018). Künstliche Intelligenz wird oft auch als Schlüsseltechnologie der digitalen Transformation bezeichnet, da sie sowohl international als auch branchenübergreifend ist, mit einem Fokus auf (Seifert, 2018). Das Wort selbst ist nicht neu. Obwohl sich das Grundkonzept der Künstlichen Intelligenz seit ihrer Geburt nicht wesentlich geändert hat, entstehen ständig neue Anwendungen. KI entwickelt sich mit einem hohen Innovationstempo und wird daher immer wichtiger (Meyer / Reese, 2018; Pathak, 2017). KI ist ein interdisziplinäres Forschungsfeld. Ein wesentliches Merkmal der KI ist daher ihre hohe Komplexität, da sie verschiedene Schnittstellendisziplinen wie Neurowissenschaften, Kognitionswissenschaften, Psychologie, Philosophie, Linguistik, Biologie, Mathematik und Informatik unterscheidet (Dörn, 2018) ; Gentsch, 2018). In der Literatur gibt es keine einheitliche Definition des Begriffs AI. Der Grund dafür ist, dass selbst der Begriff Intelligenz in verschiedenen Wissenschaften unterschiedliche Beschreibungen hat (Conrad, 2017). Bereits 1956, auf der Dartmouth Conference in New Hampshire, definierten Minsky, McCarthy, Newll und Simon (2006) erstmals den Begriff KI als „eine Maschine, die sich so verhält, als besäße sie eine Art menschlicher Intelligenz“ (Welsch / Eitle / Buxmann, 2018, S. 370, zitiert in McCarthy et al., 2006) und davon beeinflusst. Es gibt viele verschiedene Möglichkeiten, den Begriff zu definieren, aber die meisten von ihnen sind in ihrer Hauptaussage relativ konsistent (Hartmann, 2018). Künstliche Intelligenz konzentriert sich laut Jaekel (2018) hauptsächlich auf die „Automatisierung von intelligentem Verhalten“ (Jaekel, 2018, S. 21). 2.1.2 Machine Learning stellt einen der Kernbereiche und einen der wichtigsten Teilbereiche der Künstlichen Intelligenz dar. Machine Learning (ML) wird im Deutschen auch als Machine Learning bezeichnet. Machine Learning Systeme gewinnen immer mehr an Bedeutung, um große Datenmengen bzw. Daten (Boutaba et al., 2018; Liang et al., 2017). Weltweit aufgrund des Aufkommens von sozialen Medien und technologischen Innovationen sowie der Erschwinglichkeit digitaler Geräte (Johnson, 2017). Zudem wird die Datenmenge immer aussagekräftiger und kontextbezogener, was der Künstlichen Intelligenz neue Wege eröffnet. Aus diesem Grund haben sie insbesondere im maschinellen Lernen ein hohes Potenzial und sind damit eine Grundvoraussetzung für den Einsatz von Künstlicher Intelligenz und maschinellem Lernen (Kersting/Meyer, 2018; Patel, 2017). Der Begriff Big Data steht nach Manyika et al ). Diese verwenden nach dieser Definition keine klassischen Datenverarbeitungsmethoden und klassische Softwareprogramme mehr, um große Datenmengen zu verarbeiten (Bitkom/DFKI, 2017). Hier bietet ML enorme Vorteile, da es Muster aus großen Datensätzen extrahieren kann (Hecker et al., 2017). ML ist ein allgemeiner Begriff, der sich mit Methoden und Verfahren zur „Generierung von Wissen aus Erfahrung“ beschäftigt (Gentsch, 2018, S. 37). Dies bedeutet, dass der Computer Fähigkeiten erlernt und sich kontinuierlich verbessert, anstatt direkt zu programmieren (Nguyen/Zeigermann, 2018). Genauer gesagt bezeichnet es „hauptsächlich Algorithmen, die aus Daten lernen können, um datenbezogene Entscheidungen zu treffen“ (Gentsch, 2018, S. 128). Unter dem Algorithmus wird „die ausgeführte Befehlsfolge begrenzt und die Ausgangsgröße durch die Eingangsgröße bestimmt“ (Lunze, 2016, S. 8). Diese Algorithmen können Muster in bestehenden Datensätzen erkennen, um die Daten zu klassifizieren. Nur Algorithmen schaffen es, aus den Daten einen Mehrwert zu extrahieren, sodass sie mit steigender Datenmenge immer relevanter werden (Gentsch, 2018). Das ML-System ist darauf trainiert, Muster und Gesetzmäßigkeiten in den Daten zu erkennen und daraus selbstständig Schlussfolgerungen zu ziehen (Hartmann, 2018) Daten. Auf diese Weise kann das System ohne explizite Programmierung Rückschlüsse auf die Zukunft ziehen (Bitkom / DFKI, 2017; Brynjolfsson / Mcafee, 2018; Dörn, 2018). Read Less