Jan 03

ISO 9000, ISO 9001 und ISO 9004

Kommentare deaktiviert für ISO 9000, ISO 9001 und ISO 9004

Die ISO 9000 Normenreihe

Die ISO 9000 ist eine sog. Normenreihe für Qualitätsmanagementsysteme die ursprüngliche für produktorientiere Qualitätssicherung erstellt wurde. Dabei wurden aber verschiedene Aspekte dienstleistungsorientierter Unternehmen nicht beachtet, so dass es sukzessive Änderungen gab und im Jahr 2000 schließlich ein große Revision stattfand, die auf eine prozessorientierte Qualitätssicherung setzt. Einzelne Revisionen werden durch „:“ gekennzeichnet, so dass ISO 9000:2000 beispielweise die Revision des Jahres 2000 bezeichnet. Die aktuellste Revision stammt aus dem Jahr 2008, vorige Revisionen wurden in den Jahren 1990, 1994 und 2000 durchgeführt.
Weiterlesen »

Tagged with:
Dez 26

Qualitätsmanagement

Kommentare deaktiviert für Qualitätsmanagement

Definition und Inhalte

Unter Qualitätsmanagement (QM) fasst man alle Maßnahmen zusammen, die zu einer Verbesserung von Prozessen, Produkten oder Leistungen sämtlicher Art dienen. Das QM liegt im Aufgabenbereich des Managements. Um das Ziel der Qualitätsverbesserung zu erreichen, werden verschiedene Inhaltspunkte definiert, wie zum Beispiel:

  • Kommunikationsstrukturen
  • Kunden- und Mitarbeiterzufriedenheit
  • Prozessstandardisierung und Normung von Leistungen und Produkten
  • Dokumentationen

Wichtig ist an dieser Stelle, dass Qualitätsmanagement nichts über das Produkt oder die Leistung selbst aussagt sondern über die Erreichung der vorgegebenen Qualität. Auch ein sog. Billigprodukt kann daher guten Qualitätsmanagement-Standards genügen.
Weiterlesen »

Tagged with:
Dez 05

Der Simplex-Algorithmus

Kommentare deaktiviert für Der Simplex-Algorithmus

Das Simplex-Verfahren (auch Simplex-Algorithmus) ist ein Optimierungsverfahren zur Lösung linearer Optimierungsprobleme. Nach endlich vielen Schritten liefert es ein Produkt oder stellt dessen Unlösbarkeit fest. Die Grundidee des Simplex-Verfahrens wurde 1947 von George Dantzig vorgestellt. Seitdem hat es sich durch zahlreiche Verbesserungen zum wichtigsten Lösungsverfahren der linearen Optimierung in der Praxis entwickelt.

Die geometrische Grundidee des Algorithmus besteht darin, von einer beliebigen Ecke des Polyeders, das durch das lineare Programm definiert wird, entlang seiner Kanten zu einer optimalen Ecke zu laufen. Ein Namensvetter dieses Verfahrens namens Downhill-Simplex-Verfahren (Nelder und Mead 1965) basiert ebenfalls auf einem Simplex, ist aber ein iteratives Verfahren zur nichtlinearen Optimierung.
Weiterlesen »

Tagged with:
Nov 30

Verschlüsselungstechniken

Kommentare deaktiviert für Verschlüsselungstechniken

Diese Ausarbeitung beschäftigt sich hauptsächlich mit der Kryptologie im Allgemeinen und den simplen symmetrischen Verschlüsselungstechniken die zum Großteil auch ohne die Benutzung eines Computers verwirklicht werden können.
Weiterlesen »

Tagged with:
Nov 20

Advanced Encryption Standard

Kommentare deaktiviert für Advanced Encryption Standard

Der AES-Algorithmus ist ein symmetrisches Kryptosystem und wird heutzutage in vielen Anwendungsgebieten eingesetzt. Im Rahmen dieser Ausarbeitung sollen der geschichtliche Hintergrund, die Eigenschaften und die Arbeitsweise dieses Algorithmus vorgestellt werden.

Einleitung

Bis zum Oktober 2000 war der DES-Algorithmus ein populärer Algorithmus für die Verschlüsselung von Daten. Aufgrund einiger Schwächen wurde DES zu diesem Zeitpunkt vom damals neuartigen AES-Verfahren offiziell abgelöst. Zunächst sollen einige kryptografische Begriffe geklärt, dann auf die Geschichte von AES eingegangen sowie die Eigenschaften und Funktionsweisen des Algorithmus vorgestellt werden. Im Anschluss folgt eine kurze kryptografische Bewertung von AES und eine Übersicht über die Anwendungsgebiete des Verfahrens.
Weiterlesen »

Tagged with:
Nov 10

Hash-Algorithmen

Kommentare deaktiviert für Hash-Algorithmen

Hash-Algorithmen spielen in der Informatik eine wichtige Rolle. Im Folgenden befasse ich mich hauptsächlich mit dem wohl populärsten Hash-Algorithmus MD5 und dessen Nachfolger dem SHA-1. Beide sind heutzutage noch im Einsatz, gelten jedoch als nicht mehr sicher.

Einleitung

Eine Hashfunktion (auf Deutsch: Streuwertfunktion) erzeugt aus einer üblicherweise großen Quellmenge eine Ausgabe, den Hashcode, aus einer kleinen Zielmenge. Die einzelnen Stellen des Codes bestehen meist aus skalaren Werten der natürlichen Zahlen. Ein solcher Hashwert wird auch Fingerprint genannt, da er nahezu eindeutig eine größere Datenmenge beschreibt. Hashfunktionen unterscheiden sich in ihren Ein- und Ausgaben sowie den Einfluss bestimmter Muster und Eingaben.

Weiterlesen »

Tagged with:
Nov 09

Durch Eyetracking ist es möglich, dass das man die visuelle Wahrnehmung einer anderen Person simulieren, aufzeichnen und analysieren kann. Damit wird eine Möglichkeit geschaffen sich zu einem gewissen Grad in einen anderen Menschen hineinzuversetzen.
Weiterlesen »

Tagged with:
Nov 05

Echte Zufallszahlen

Kommentare deaktiviert für Echte Zufallszahlen

Einleitung

Echte Zufallszahlen begegnen uns heute beinahe täglich und sind die Basis verschiedener Prozesse, wie zum Beispiel dem Erstellen kryptographischer Schlüssel, der Ziehung beim Lotto oder beinahe allen Spielen in einem Casino. Im Folgenden soll zunächst eine Übersicht darüber gegeben werden, was Zufall eigentlich bedeutet und ob es ebendiesen überhaupt gibt, bevor der Unterschied zwischen Pseudo- und echten Zufallszahlen erläutert wird. Im Anschluss werden Methoden zum Erstellen echter Zufallszahlen vorgestellt und einige Anwendungen, in denen diese benötigt werden, aufgezeigt. Zum Abschluss soll dargestellt werden, warum überhaupt echte Zufallszahlen benötigt werden und wann diese den Pseudozufallszahlen vorzuziehen sind.

Der Zufall

Einstein hat den Zufall mit folgenden Worten definiert: „Zufall ist nur der Ausdruck unserer Unfähigkeit, den Dingen auf den Grund zu kommen.“ [ZIT06] Er trifft damit den Kern einer Diskussion über den Zufall, die auf einer mathematischen oder physikalischen Ebene beginnt sich über die Philosophie erstreckt und letztlich sogar unseren freien Willen in Frage stellt.

Weiterlesen »

Tagged with:
Jan 26

Vorwort

Diese Ausarbeitung betrachtet das Positionsbestimmungssystem GPS von einem mathematischen Blinkwinkel aus und gibt einen Überblick der rechnerischen Ortsbestimmung im dreidimensionalen Raum.

Einleitung

Bis zur Erfindung der Satelliten gestützten Navigation musste man sich umständlicher Hilfsmittel (z.B. geographische Besonderheiten, Gestirne, Kompass, etc…) bedienen, um sich in einer unbekannten Umgebung zu recht zu finden. Heut zu Tage gibt es 2 konkurrierende Satellitensysteme, das vom Verteidigungsministerium der ehemaligen Sowjetunion konzipierte Global Navigation Satellite System (GLONASS) und das amerikanische Äquivalent Global Positioning System (GPS). Obwohl beide Systeme als nahezu gleichwertig zu betrachten sind, hat sich das GPS durchgesetzt und wird im Folgenden genauer betrachtet.
Weiterlesen »

Tagged with:
preload preload preload