Benutzerspezifische Werkzeuge
Sie sind hier: Startseite Lexikon Technologische und methodische Grundlagen KI und Softcomputing Künstliche Intelligenz

Künstliche Intelligenz

Künstliche Intelligenz soll Maschinen in die Lage versetzen, menschliche Tätigkeiten zu übernehmen. Dabei soll das menschliche Gedächtnis, sein Lernverhalten und seine Entwicklung nachgebildet werden.

Grundlegendes Verständnis

Bei zunehmend unstrukturierten Problemstellungen kann ein Computerprogramm keine brauchbaren Lösungen liefern, insofern die Programme nicht durch einen Katalog logisch redundanter heuristischer Informationen angereichert sind. Durch eine große Anzahl von derartigen Katalogen kann die Lösbarkeit von unterschiedlichen Problemen erhöht werden, wobei diese Kataloge in einer human-orientierten Art und Weise gestaltet sein können. Künstliche Intelligenz (KI) bezeichnet problemlösungsorientierte und dem menschlichen Verhalten angepasste Gewusst wie-Anleitungen, die in eine Programmstruktur übertragen worden sind [Michie 1982, S. 176 ff.]. Dazu müssen sie kollektives Wissen speichern und erweitern sowie zu Grunde liegendes Wissen durch Muster, Kategorien und Verhalten erkennen können [Laudon et al. 2009, S. 475]. Die KI versucht, das menschliche Gedächtnis, sein Lernverhalten und seine Entwicklung nachzubilden. Grundsätzlich bestehen zwei Ausprägungen: die starke KI und die schwache KI. Die starke KI hat das Ziel, menschliche Problemlösungskreativität, Selbstbewusstsein und Emotionen abzubilden. Die schwache KI fokussiert auf die Lösung konkreter Anwendungsprobleme durch Simulation von Intelligenz durch Methoden der Informatik und Mathematik [Russel und Norvig 2009].

Die KI deckt einen weiten Anwendungsbereich ab, der von Spracherkennungssystemen bis hin zu Expertensystemen unterschiedlicher Anwendungsfelder reicht und dessen Algorithmen beispielsweise in aktuellen Data-Mining-Werkzeugen zur Verfügung gestellt werden [Mena 2000, S. 120]. Um menschliche Fähigkeiten am besten zu simulieren, werden zwei Ansätze verfolgt. Diese sind der Top-Down-Ansatz (Deduktion) und der Bottom-Up-Ansatz (Induktion).

Deduktive Analyse

Der deduktive Ansatz umfasst die Erstellung von Regeln, auf Grundlage der Befragung von Experten zu ihrem Wissensgebiet. Ihre Antworten werden anschließend von so genannten Knowledge Engineers zu Regelsätzen zusammengestellt und fließen als Wissen in die Programmierung eines Systems ein. Expertensysteme nutzen zur Implementierung beispielsweise Sprachen wie LISP oder Prolog. Zu beachten ist bei diesem Ansatz jedoch, dass derartige Systeme fehleranfällig und nur schwer zu warten sind. Mengen von Regeln sind manuell zu pflegen und zu aktualisieren, um Marktveränderungen Rechnung zu tragen [Mena 2000, S. 121].

Induktive Analyse

Beim induktiven Ansatz werden die Regeln direkt aus den Daten heraus und nicht durch die Befragung von Fachleuten generiert. Dieser Ansatz extrahiert Muster und lernt anhand von Beispielen. Zu Gunsten dieses Ansatzes wurden in den 1980er Jahren Fortschritte durch John Hopfields Neuronale Netze (Backpropagation), J. Ross Quinlans Interactive Dichotomiser (ID3) oder John Hollands Genetischen Algorithmen gemacht. Mit einem rückgekoppelten Neuronalen Netz zeigte Hopfield, wie es sich anpasst und schließlich Muster erlernt, indem es wiederholt mit Fallbeispielen konfrontiert wird. Quinlans ID3-Algorithmus führte zu einem der ersten lernenden Systeme, das in der Lage war, Regeln in Form eines Entscheidungsbaumes zu generieren. Hollands Arbeit führte zur Schema-Theorie, welche die Grundlage für Genetische Algorithmen bildete. Er zeigte, wie Programme zusammen arbeiten können, um Probleme zu lösen und Lösungen zu optimieren [Mena 2000, S. 121 f.].

Literatur

Laudon, K. C.; Laudon, J. P.; Schoder, Detlef: Wirtschaftsinformatik – Eine Einführung. 2. Auflage. Pearson Studium: München et al. 2009.

Mena, J.: Data Mining und E-Commerce – Wie Sie ihre Online-Kunden besser kennenlernen und gezielter ansprechen. Symposion: Düsseldorf 2000.

Michie, D.: Machine Intelligence and Related Topics. Gordon and Breach: New York, London, Paris 1982.

Russel, S.; Norvig, P.: Artificial Intelligence: A Modern Approach. 3. Auflage. Pearson: Essex 2009.

 

Autor


 

Univ.-Prof. Dr. rer. oec. Carsten Felden, TU Bergakademie Freiberg (Sachsen), Fakultät für Wirtschaftswissenschaften insbes. Internationale Ressourcenwirtschaft, Direktor Institut für Wirtschaftsinformatik, Professur für ABWL insb. Informationswirtschaft/Wirtschaftsinformatik, Silbermannstr. 2, 09599 Freiberg (Sachsen)

Autoreninfo


Zuletzt bearbeitet: 28.11.2016 15:35
Letzter Abruf: 23.02.2017 12:39
Artikelaktionen