Home > Informatik > Begriffe und Konzepte > Algorithmus

Algorithmus

Definition

Allgemein werden die Arbeitsschritte, die zur Lösung einer Problemstellung führen, als Algorithmus bezeichnet. Der Begriff kommt ursprünglich aus der Mathematik, wurde später aber auch auf die Informatik übertragen.

"Im Allgemeinen ist ein Algorithmus zu verstehen als eine endliche Abfolge von eindeutig definierten Anweisungen – der/die Wissenschaftler:in spricht dann von wohldefinierten Anweisungen – mithilfe derer eine bestimmte Aufgabe erledigt oder ein spezifisches Problem gelöst wird. " [2]

Anforderungen (nach Habelitz [1] )

  • Er muss aus Arbeitsschritten bestehen, die zur Lösung einer Problemstellung führen.
  • Er muss in einem endlichen Text vollständig beschreibbar sein.
  • Jeder Schritt muss zu einem eindeutigen Zwischenergebnis führen.
  • Er muss für gleiche Eingabewerte immer zum gleichen Ergebnis führen.
  • Das Verfahren muss zum richtigen Ergebnis führen.
  • Das Verfahren muss allgemeingültig sein, d. h., es muss auf alle zulässigen Daten anwendbar sein.

Sehr wichtig sind vor allem die drei letzten Punkte. Ein Algorithmus, der beispielsweise das Idealgewicht einer Person berechnet oder wie viele Tage seit dem 01.01.2000 vergangen sind, muss immer den selben richtigen Wert liefern. Mit der Allgemeingültigkeit ist gemeint, dass ein Verfahren, dass die Summe aus 4 und 7 berechnet, kein Algorithmus ist. Ein Algorithmus würde die Summe aus a und b berechnen, wobei a und b beliebige Zahlen sind.

Quellen:

  1. Hablitz, Programmieren lernen mit Java, Rheinwerk-Verlag 2025
  2. 2. "Was ist ein Algorithmus" auf Fraunhofer ITWM