Das allgemeine Problem der Simulation (oder Schaffung) von Intelligenz wurde in Teilprobleme aufgeteilt. Diese bestehen aus bestimmten Merkmalen oder Fähigkeiten, die Forscher von einem intelligenten System erwarten. Die im Folgenden beschriebenen Eigenschaften haben die meiste Aufmerksamkeit erhalten und decken den gesamten Bereich der KI-Forschung ab.
Frühe Forscher entwickelten Algorithmen, die das schrittweise Denken nachahmten, das Menschen beim Lösen von Rätseln oder bei logischen Schlussfolgerungen anwenden.Ende der 1980er und in den 1990er Jahren wurden Methoden für den Umgang mit unsicheren oder unvollständigen Informationen entwickelt, wobei Konzepte aus der Wahrscheinlichkeitsrechnung und den Wirtschaftswissenschaften verwendet wurden.
Viele dieser Algorithmen sind unzureichend, um große logische Probleme zu lösen, da sie eine "kombinatorische Explosion" erleben: Sie werden exponentiell langsamer, je größer die Probleme werden. Auch Menschen verwenden selten die schrittweise Deduktion, die die frühe KI-Forschung modellieren konnte. Sie lösen die meisten ihrer Probleme mit schnellen, intuitiven Urteilen. Genaues und effizientes Schlussfolgern ist ein ungelöstes Problem.
Eine Ontologie stellt Wissen als eine Menge von Konzepten innerhalb eines Bereichs und die Beziehungen zwischen diesen Konzepten dar.
Wissensdarstellung und Knowledge Engineering ermöglichen es KI-Programmen, Fragen intelligent zu beantworten und Schlussfolgerungen über reale Fakten zu ziehen. Formale Wissensrepräsentationen werden u. a. bei der inhaltsbasierten Indexierung und Abfrage, der Interpretation von Szenen, der Unterstützung klinischer Entscheidungen, der Wissensentdeckung (Gewinnung "interessanter" und verwertbarer Schlussfolgerungen aus großen Datenbanken) und in anderen Bereichen eingesetzt.
Eine Wissensbasis ist ein Wissensbestand, der in einer Form dargestellt wird, die von einem Programm verwendet werden kann. Eine Ontologie ist die Menge von Objekten, Beziehungen, Konzepten und Eigenschaften, die in einem bestimmten Wissensbereich verwendet werden. Wissensdatenbanken müssen Dinge darstellen wie: Objekte, Eigenschaften, Kategorien und Beziehungen zwischen Objekten; Situationen, Ereignisse, Zustände und Zeit; Ursachen und Wirkungen; Wissen über Wissen (was wir über das wissen, was andere Menschen wissen); Standardschlüsse (Dinge, von denen Menschen annehmen, dass sie wahr sind, bis ihnen etwas anderes gesagt wird, und die auch dann wahr bleiben, wenn sich andere Fakten ändern); und viele andere Aspekte und Bereiche des Wissens.
Zu den schwierigsten Problemen bei der Wissensrepräsentation gehören: der Umfang des Alltagswissens (die Menge der atomaren Fakten, die der Durchschnittsmensch kennt, ist enorm); und die subsymbolische Form des meisten Alltagswissens (vieles von dem, was die Menschen wissen, ist nicht als "Fakten" oder "Aussagen" dargestellt, die sie verbal ausdrücken könnten); Hinzu kommt die Schwierigkeit des Wissenserwerbs, das Problem der Beschaffung von Wissen für KI-Anwendungen.
Ein "Agent" ist alles, was in der Welt wahrnimmt und Handlungen ausführt. Ein rationaler Agent hat Ziele oder Präferenzen und ergreift Maßnahmen, um diese zu verwirklichen. Bei der automatisierten Planung hat der Agent ein bestimmtes Ziel. Bei der automatisierten Entscheidungsfindung hat der Agent Präferenzen - es gibt einige Situationen, in denen er sich lieber aufhalten würde, und einige Situationen, die er vermeiden möchte. Der Agent, der die Entscheidungen trifft, weist jeder Situation eine Zahl zu (den so genannten "Nutzen"), die angibt, wie sehr der Agent diese Situation bevorzugt. Für jede mögliche Handlung kann er den "erwarteten Nutzen" berechnen: den Nutzen aller möglichen Ergebnisse der Handlung, gewichtet mit der Wahrscheinlichkeit, dass das Ergebnis eintreten wird. Er kann dann die Handlung mit dem höchsten erwarteten Nutzen wählen.
Bei der klassischen Planung weiß der Agent genau, welche Auswirkungen eine Aktion haben wird. Bei den meisten realen Problemen ist sich der Agent jedoch nicht sicher über die Situation, in der er sich befindet (sie ist "unbekannt" oder "unbeobachtbar"), und er weiß möglicherweise nicht mit Sicherheit, was nach jeder möglichen Aktion passieren wird (sie ist nicht "deterministisch"). Er muss eine Handlung wählen, indem er eine probabilistische Vermutung anstellt, und dann die Situation neu bewerten, um zu sehen, ob die Handlung funktioniert hat.
Bei einigen Problemen können die Präferenzen des Agenten unsicher sein, insbesondere wenn andere Agenten oder Menschen beteiligt sind. Diese können erlernt werden (z. B. mit inversem Verstärkungslernen), oder der Agent kann nach Informationen suchen, um seine Präferenzen zu verbessern. Die Informationswerttheorie kann verwendet werden, um den Wert explorativer oder experimenteller Handlungen abzuwägen. Der Raum möglicher zukünftiger Handlungen und Situationen ist in der Regel unüberschaubar groß, so dass die Agenten Handlungen durchführen und Situationen bewerten müssen, obwohl sie nicht wissen, wie das Ergebnis aussehen wird.
Ein Markov-Entscheidungsprozess hat ein Übergangsmodell, das die Wahrscheinlichkeit beschreibt, dass eine bestimmte Aktion den Zustand auf eine bestimmte Weise verändert, und eine Belohnungsfunktion, die den Nutzen jedes Zustands und die Kosten jeder Aktion liefert. Eine Strategie ordnet jedem möglichen Zustand eine Entscheidung zu. Die Strategie kann berechnet werden (z. B. durch Iteration), heuristisch sein oder gelernt werden.
Die Spieltheorie beschreibt das rationale Verhalten mehrerer interagierender Agenten und wird in KI-Programmen verwendet, die Entscheidungen treffen, an denen andere Agenten beteiligt sind.
(Quelle: Wikipedia)