Informatik (Subject) / Allgemeine Begriffe (Lesson)

There are 22 cards in this lesson

Erklärung allgemeiner Begriffe aus dem Bereich Hosting

This lesson was created by NattyD.

Learn lesson

  • Speichernetz: VSAN Virtual Storage Area Network (VSAN) sind virtuelle Speichernetze mit denen unabhängige logische Speichernetze in FC-Switches definiert werden können. Die Switch-Ports sind jeweils nur einem VSAN zugeordnet. Die einzelnen VSANs arbeiten vollkommen getrennt voneinander, sind skalierbar, verfügen über eigene Sicherheitskriterien und unterstützen eigene SAN-Services wie den Namensservice World Wide Name (WWN), das Zoning oder den Snapshot. Über eine Routingfunktion, dem Inter-VSAN-Routing, können Server in den verschiedenen VSANs auf gemeinsame Speicherressourcen zugreifen. Über dieses Inter-VSAN-Routing kann der Datenverkehr selektiv zwischen den SAN-Geräten in den verschiedenen VSANs übertragen werden, ohne dass diese einer einzigen logischen Fabric angehören müssen. Die von Cisco entwickelte VSAN-Technik wurde von der ANSI auf Veranlassung des technischen Komitees der INCITS als neuer Industriestandard definiert.
  • Speichernetz: SAN Storage Area Networks (SAN) sind dedizierte Speichernetze, die Server und Speichersysteme über Breitbandnetze wie Fibre Channel miteinander verbinden und gegenseitig entkoppeln. Anforderungen an Speichernetze: Wichtige Aspekte von Speichernetzen sind der unbegrenzte Zugriff der Hosts auf alle Massenspeicher, die gemeinsame zentrale Nutzung von leistungsfähigen Speichersystemen, der Lastaustausch zwischen verfügbaren Sicherungsgeräten, die zentrale Geräteüberwachung und -Konfiguration, die Erhöhung der verwaltbaren Datenmenge, die ständige Verfügbarkeit aller Daten und die geringe Belastung der lokalen Netze. Speichernetzwerke müssen immer verfügbar sein, selbst dann, wenn ein Server ausfällt. Über andere Server kann dann weiterhin auf den Datenbestand zugegriffen werden. Darüber hinaus sind die Ausfallsicherheit und die Skalierbarkeit als weitere markante Eigenschaften von Speichernetzwerken zu nennen. Der Einsatz der Speichernetze zielt auf den Backup- und Restore-Betrieb in Zusammenhang mit der Globalisierung von Netzen. Speichernetze basieren auf separaten Backup-Netzwerken, über die alle Backup-Systeme miteinander verbunden sind. Das Speichernetzwerk stellt dabei eine Ergänzung zum LAN dar, in dem quasi im Hintergrund Operationen an und mit gespeicherten Daten ausgeführt werden, wie beispielsweise die Indexierung einer Datenbank oder aber die Datensicherung von Unternehmensdaten. Durch ein solches Netzwerk wird das eigentliche lokale Netz entlastet. Zentral verwaltete Speichernetze können Daten über mehrere Speichernetzwerke hinweg zugänglich machen, unabhängig davon, welche Computersysteme oder Applikationen genutzt werden. 
  • Speichernetz: Die Standards für Speichernetze. Die Speichernetzwerktechnik wird von formalen und De-facto-Standards getragen, wobei mehrere Industrie-Organisationen unterschiedlichste Standards produzieren. Neben den reinen Speichernetzwerken, den SANs, die eigene High-Speed-Netzwerke mit Fibre-Channel verwenden, gibt es Network Attached Storage (NAS), die die vorhandenen Unternehmensnetze nutzen, und die klassische Variante mit Direct Attached Storage (DAS). Eine leistungsfähige Storage-Infrastruktur kann auch auf bekannten Hochgeschwindigkeitsstandards wie Ethernet, Internet Small Computer System Interface over IP (iSCSI), Fibre Channel over Ethernet (FCoE), Fibre Channel over IP (FCIP), Internet Fibre Channel Protocol (iFCP), Small Computer System Interface (SCSI) und InfiniBand aufgebaut werden, wodurch Netzkonfigurationen basierend auf dem IP-Protokoll, also Storage over IP (SoIP), realisiert werden können. Bei den Schnittstellen kristallisieren sich infrastrukturelle Schnittstellen heraus, die eine logische Sicht auf das SAN-Netzwerk erlauben. Dazu gehören: X/Open Backup Service API (XBSA), Network Data Management Protocol (NDMP), Removable Storage Management (RSM), Return Node Identification (RNID), Return Topology Information (RTIN), Simple Network Management Protocol (SNMP), Application Programming Interface (API), Data Management API (DMAPI), Open Database Connectivity (ODBC) sowie ANSI Fibre Channel Fabric Element MIB (FE-MIB).
  • Speichernetz: NAS Network Attached Storage (NAS) ist ein Gegenkonzept zu Speichernetzen (SAN), das über eine breitere Angebotsbasis verfügt und auf vorhandenen Netzstrukturen aufbaut. Das NAS-Konzept basiert auf einer zentralisierten Datenhaltung und besteht aus einem NAS-Server, der an das Unternehmens-LAN angeschlossen ist und ausschließlich der Datenspeicherung dient. Der gesamte Datenverkehr läuft über das vorhandene Unternehmensnetz, LAN/WAN, das dadurch belastet wird. Neben Ethernet, Fast- und Gigabit-Ethernet können dies auch ATM oder Fibre-Channel sein. NAS-Systeme nutzten vorhandene Hardware als Speicher- und Netzwerkkomponenten und bieten Filesharing zwischen verschiedenen Betriebssystemen. Dafür werden bei Network Attached Storage das Network File System (NFS), das Common Internet File System (CIFS) für PC-Datenstrukturen und HTTP eingesetzt. Mittels NAS lassen sich Speicherprobleme bei normalen, nicht überdimensionierten Netzproportionen lösen. Das Echtzeitbetriebssystem des NAS-Servers ist auf den File Transfer zwischen Netzwerk und den Festplatten im Netzwerkspeicher optimiert. Darüber hinaus entlastet der NAS-Server den Applikation-Server durch die Übernahme der Fileserver-Funktionen.Network Attached Storage ist plattformübergreifend einsetzbar und kann relativ einfach implementiert werden.
  • Speichernetz DAS Das Direct Attached Storage (DAS) ist die klassische Variante eines Speichernetzes, bei dem die Server und Speichersysteme über dedizierte SCSI-Verbindungen miteinander kommunizieren. Die Daten werden über diese Schnittstelle auf Blocklevel übertragen. Bei dem DAS-Konzept sind die Speichermedien direkt an den Server angeschlossen. In Bezug auf den Ausbau der Speicherressourcen ist das DAS-Konzept relativ aufwändig, darüber hinaus bilden die Server, über die alle Daten fließen, einen Engpass.
  • iSCSI Hochgeschwindigkeitsstandard iSCSI (Internet Small Computer System Interface over IP) ist ein IP-Storage (SoIP) für Speichernetze, das die Art und Weise spezifiziert, wie direkte Speicherprotokolle nativ über das IP-Protokoll betrieben werden können. Bei diesem Verfahren werden SCSI-Daten in TCP/IP-Pakete verpackt und über IP-Netze transportiert. Dadurch kann iSCSI auf der vorhandenen Verkabelung von Ethernet und auch über Weitverkehrsnetze betrieben werden. Bei der Kommunikation werden die verpackten SCSI-Kommandos zu einem SCSI-Router geschickt, der auf Basis vorhandener Mapping-Tabellen das entsprechende Zielsystem ausgewählt. Der gesamte iSCSI-Datenrahmen setzt sich zusammen aus einem Ethernet-Header, gefolgt von IP- und TCP-Headern, dem iSCSI-Header dem die SCSI-Daten folgen. Rechnerseitig kann eine iSCSI-Karte das Protokoll unterstützen, beim Speicher wird ein dedizierter Server benötigt, der die Schnittstelle zum Netzwerk bildet und als iSCSI-Router bezeichnet wird. iSCSI wird eingesetzt, um externe Niederlassungen über eine virtuelle Ende-zu-Ende-Verbindung den Zugriff auf das Speichernetz zu ermöglichen, ohne dass in den Niederlassungen eigene Speichergeräte aufgestellt werden müssen. Das iSCSI-Verfahren wurde unter anderem von Cisco und IBM entwickelt, von vielen anderen Unternehmen unterstützt und von der Internet Engineering Task Force (IETF) standardisiert.
  • FCoE Hochgeschwindigkeitsstandard Fibre Channel over Ethernet (FCoE) ist eine Initiative von mehreren Unternehmen, die das American National Standards Institute (ANSI) standardisiert hat. Mit FCoE lassen sich Fibre-Channel-Daten in einem Speichernetz über Ethernet transportieren. Die Vorteile liegen in dem einheitlichen Übertragungsverfahren mit dem sich die Struktur der Rechenzentren vereinfachen und Investitionen verringern lassen. Darüber hinaus kann der Datenverkehr zu den Rechner- und Speicher-Ressourcen über eine einheitliche Switching-Fabric organisiert werden. Das in diesem Zusammenhang vorgeschlagene Management-Modell ist zudem konsistent zu dem des Fibre Channel (FC). Der Hintergrund dieser Aktivitäten ist darin zu sehen, dass bisher für die lokalen Netze (LAN) andere Protokolle und eine andere Netzwerkinfrastruktur benutzt werden, als für Speichernetze (SAN). Erstere setzen auf Ethernet und TCP/IP, die zweitgenannten auf Fibre-Channel. Mit dem zunehmenden Einsatz von 10-Gigabit-Ethernet und 40-Gigabit-Ethernet in Rechenzentren stehen hinreichend hohe Geschwindigkeiten für den Betrieb von Speichernetzen (SAN) zur Verfügung. Es könnte somit eine Konsolidierung unter Erhalt der Speichernetz-Infrastruktur stattfinden. Die Übertragungstechnik von FCoE Bei FCoE werden die FC-Daten verlustfrei über ein Lossless Ethernet transportiert. Dazu werden zwei Protokolle eingesetzt, eines für den Transport der Daten, das FCoE-Protokoll, und eines zur Kontrolle der FCoE-Verbindungen, das FCoE Initialization Protocol (FIP). Bei FCoE wird die Nutzlast von Fibre Channel mit dem FC-Header in einem FC-Frame verpackt. Anschließend wird das FC-Frame mit einem FCoE-Header ausgestattet und dieser FCoE-Frame wird über Ethernet transportiert. Da die Ansprüche von Speichernetzen an deren Zuverlässigkeit extrem hoch sind, wird anstelle des normalen Ethernet mit Converged Enhanced Ethernet (CEE) ein Lossless Ethernet benutzt oder aber Data Center Bridging (DCB), beziehungsweise das Data Center Ethernet (DCE). Das FC-Schichtenmodell ist entsprechend modifiziert. Anstelle der FC-Schichten FC-0 und FC-1 treten die unteren Ethernet-Schichten, und zwischen die Schichten für die FC-Services wird die Schicht für die Verkapselung eingefügt. Die unteren Schichten werden zum Converged Enhanced Ethernet erweitert. Für die verlustfreie Übertragung entwickelt IEEE vier Protokolle, die den Datenfluss und deren Prioritäten regeln. Die Arbeitsgruppe IEEE 802.1Qbb arbeitet am Priority Flow Control (PFC), 802.1Qaz am Enhanced Transmission Selection (ETS) und am Data Center Bridging Exchange Protocol (DCBX) und 802.1Qau am Quantized Congestion Notification (QCN). Hinter FCoE stehen Brocade, Cisco, EMC, Emulex, IBM, Intel, Nuova, QLogic und Sun, die die von ihnen ausgearbeiteten Spezifikationen für "Fiber Channel over Ethernet" beim T11-Komitee von ANSI eingereicht haben. Um die in Speichernetzen geforderte Zuverlässigkeit zu gewährleisten, ging ein weiterer Vorschlag an IEEE, der die Unzuverlässigkeit des IP-Protokolls, das Datenpakete verlieren kann, behebt.
  • FCIP Hochgeschwindigkeitsstandard Fibre Channel over IP (FCIP) ist ein in Speichernetzen eingesetztes Tunnelling-Protokoll für die Verbindung von Fibre-Channel-Speichernetzen (FC-SAN) über IP-Netze. Bei diesem Verfahren werden die FC-Daten in IP-Pakete gepackt, über IP-Netze übertragen und am Zielort wieder entpackt. Die Extensions Ports (E-Ports) der FC-Switches werden dadurch mit Hilfe eines Storage-Routers mittels des IP-Protokolls verlängert. Der gesamte FCIP-Datenrahmen setzt sich zusammen aus einem Ethernet-Header, gefolgt von IP- und TCP-Headern, dem FCIP-Header und dem FCP-Header, dem die SCSI-Daten folgen. Das kostengünstige Tunneling kann für die Verbindung von Speichernetzen über den lokalen Standort hinaus eingesetzt werden. Fibre Channel over IP ist in RFC 3821 beschrieben.
  • iFCP Hochgeschwindigkeitsstandard Internet Fibre Channel Protocol (iFCP) ist ein Übertragungsprotokoll für Speichernetze, für das von der Internet Engineering Task Force (IETF) und ANSI Normentwürfe entwickelt werden. Ebenso wie Internet Small Computer System Interface over IP (iSCSI) und Fibre Channel Protocol (FCP) benutzt iFCP das SCSI-Protokoll, wobei ein anderes physikalisches Verbindungsmedium mit einer anderen Technik Verwendung findet. Bei iFCP wird das Medium von Fibrer-Channel gegen TCP/IP-Verbindungen ausgetauscht, die Funktion der Fabrics und FC-Switche übernehmen TCP/IP-Switche, die mit Fibre-Channel-Schnittstellen ausgestattet sind. Die Verwaltung der verkapselten Fibre-Channel-Datenpakete erfolgt mittels TCP/IP. Der gesamte FCIP-Datenrahmen setzt sich zusammen aus einem Ethernet-Header, gefolgt von IP- und TCP-Headern, dem iFCP-Header und dem FCP-Header, dem die SCSI-Daten folgen. Beschrieben ist das Internet Fibre Channel Protocol in RFC 4172.
  • IP-Storage Storage over IP (SoIP) ist eine Speichernetztechnologie vergleichbar mit Storage Area Network (SAN) und Network Attached Storage (NAS). Der Vorteil dieser Technologie basiert auf bewährten, ausgereiften und weit verbreiteten Technologien und Protokollen: Ethernet, SCSI und das IP-Protokoll. Bei Storage over IP handelt es sich um ein Protokoll für die Übertragung von Speicherdaten über IP-Netze. Dieses Verfahren soll die Ausdehnungsbegrenzung von Fibre Channel erweitern und damit die Voraussetzungen für die Übertragung von SAN-Daten über Weitverkehrsnetze schaffen. Neben proprietären Lösungen gibt es ein von der Internet Engineering Task Force (IETF) standardisiertes SoIP-Protokoll, das iSCSI. Da Ethernet mittelfristig über die existierende 10-Gigabit-Datenrate hinaus weiterentwickelt werden wird, können auf dieser Basis Speichernetze standardisiert werden.
  • Frontend-Management Im E-Commerce sorgt das Frontend-Management für die Mensch-Computer-Schnittstelle und ist damit mitentscheidend für den Zugang des Besuchers zu einer Plattform und für die Präsentation der Produkte. Das Frontend-Management bildet den Informations- und Distributionskanal zwischen Interessent bzw. Kunde und der Website des Unternehmens mit dem Warenangebot. Über diesen Handelskanal erfolgt die Kommunikation zwischen Kunde und Plattform. Die Präsentation der Waren und Dienstleistungen, die Einfachheit und Schnelligkeit der Interaktion bei der Auswahl und dem Kauf von Produkten ist dabei mitentscheidend über Erfolg oder Misserfolg der Website. Dazu gehören die Produktdarstellung sowie die Suchkriterien und -hilfen im Frontend, Zusatzinformationen durch Links zu weitergehenden Produktinformationen oder Erfahrungsberichten, ebenso wie eine leicht interpretierbare Benutzerführung. Das Frontend-Management unterstützt das individuelle Marketing, das One-to-One-Marketing, gewinnt relevante Daten aus dem User-Tracking.
  • Back-End Das Back-End ist im Gegensatz zum Front-End der Teil einer Client-Server-Architektur oder eines Computersystems, der teilnehmerfern liegt. Betrachtungsmäßig liegt er näher am System, wohingegen das Front-End näher am Benutzer liegt. In einer Client-Server-Architektur bildet das Back-End den Server, der die Clients versorgt. Back-Ends können Mainframes oder Workstations sein an die die Peripheriegeräte angeschlossen sind. Ein Back-End-Netzwerk verbindet die Rechner untereinander. Es benötigt typischerweise eine hohe Bandbreite und wird in der Regel mit optischen Übertragungsmedien realisiert. Bei Websites versteht man unter Back-End den administrativen Bereich, den, in dem die Oberfläche bearbeitet, der Content eingestellt und die Webseite verwaltet wird.
  • Hypervisor Der Hypervisor, auch als Virtual Machine Monitor (VMM) bezeichnet, ist der Kern der meisten Produkte für die Servervirtualisierung. Der VMM stellt die Virtualisierungsschicht dar, die die gleichzeitige Ausführung mehrerer virtueller Maschinen (VM) sowie ihre Steuerung ermöglicht und in dieser Eigenschaft auch als Wirt - im Gegensatz zum Gast - oder (missverständlich, da verwechselbar mit dem Betriebssystem) als Host bezeichnet wird. Das Schichtenmodell der Hypervisor-Architektur. Die VMM- oder Hypervisor-Schicht ermöglicht es mehreren verschiedenen Betriebssystemen, sich die Hardware-Ressourcen eines Rechners zu teilen, indem die verfügbaren Kapazitäten von RAMs, Prozessoren, Ein-/Ausgabe (I/O), DMA-Controller und alle übrigen relevanten Komponenten transparent auf die Gastsysteme aufgeteilt werden. Je nach Hypervisor-Architektur läuft der VMM direkt auf der Hardware (Hypervisor Typ 1) und die Virtual Machine (VM) nutzen die vom Hypervisor bereitgestellten Ressourcen, oder oder als Hypervisor-Applikation innerhalb eines normalen (Host-)Betriebssystems (Hypervisor Typ 2), das die I/O-Ressourcen des Netzwerks und der Speichersysteme bereitstellt. Manche sind dabei auf Eigenschaften der Hardware oder spezielle Virtualisierungsfunktionen der Zentraleinheit (CPU) wie auf die Intel Virtualization Technology (Intel VT) oder die AMD Virtualization (AMD-V) angewiesen, um virtuelle Maschinen auszuführen Das Schichtenmodell der Hypervisor-Architektur. Die VMM- oder Hypervisor-Schicht ermöglicht es mehreren verschiedenen Betriebssystemen, sich die Hardware-Ressourcen eines Rechners zu teilen, indem die verfügbaren Kapazitäten von RAMs, Prozessoren, Ein-/Ausgabe (I/O), DMA-Controller und alle übrigen relevanten Komponenten transparent auf die Gastsysteme aufgeteilt werden. Je nach Hypervisor-Architektur läuft der VMM direkt auf der Hardware (Hypervisor Typ 1) und die Virtual Machine (VM) nutzen die vom Hypervisor bereitgestellten Ressourcen, oder oder als Hypervisor-Applikation innerhalb eines normalen (Host-)Betriebssystems (Hypervisor Typ 2), das die I/O-Ressourcen des Netzwerks und der Speichersysteme bereitstellt. Manche sind dabei auf Eigenschaften der Hardware oder spezielle Virtualisierungsfunktionen der Zentraleinheit (CPU) wie auf die Intel Virtualization Technology (Intel VT) oder die AMD Virtualization (AMD-V) angewiesen, um virtuelle Maschinen auszuführen Bekannte Vertreter des Typ-1-Hypervisors sind: IBM z/VM, Xen, VMware ESX, Sun Logical Domains. Deren Architektur hat den Vorteil, sehr schlank und sehr robust zu sein. Sie sind zugleich die performantesten Vertreter der Servervirtualisierungsprodukte. Beispiele für den Typ-2-Hypervisor: VMware Server + Workstation, Microsoft Virtual PC + Server, Qemu, Parallel Workstation + Desktop.
  • NFS-System Das Network File System (NFS) wurde von Sun Microsystems definiert und entwickelt. Durch Offenlegung der Spezifikationen konnte dieses System von vielen Herstellern implementiert werden und entwickelte sich zu einem De-facto-Standard. Das Netzwerk-Dateisystem wird als Erweiterung des Betriebssystems geliefert und ist neben Unix auch für MS-DOS, Virtual Memory System (VMS), Multiple Virtual Storage (MVS) usw. erhältlich. Als Transportprotokolle werden die TCP/IP-Protokolle eingesetzt. NFS ermöglicht das Zuordnen von Dateisystemen entfernter Rechner auf lokale Dateisysteme (»Mounten«). Dadurch wird der Zugriff auf diese entfernten Dateisysteme in den verschiedenen NFS-Serversystemen ermöglicht. Neben den Dateisystemen können auch Drucker über das Netzwerk anderen Anwendern zugänglich gemacht werden. Ein Netzwerkdrucker kann mittels NFS aus einer Anwendung heraus transparent angesprochen werden, wenn er vom lokalen Gerät "gemountet" wurde. Da das entfernte Dateisystem wie ein lokales angesprochen werden kann, können auch Programme, die in diesen Dateisystemen gespeichert sind, wie lokale Programme aufgerufen werden. Dabei werden diese Programme von dem entfernten Dateisystem über das Netzwerk geladen und im Arbeitsspeicher des lokalen Rechners gespeichert. Das Network File System wird vorwiegend in heterogenen Netzen eingesetzt. Das NFS-Protokoll ist in der ersten Version in RFC 1094 aus dem Jahr 1989 beschrieben, die Version 3 in RFC 1813.
  • IaaS (IT-Lexikon) Infrastructure-as-a-Service (IaaS) ist ein Service des Cloud-Computing für die bedarfsabhängige Bereitstellung virtueller Infrastruktur-Komponenten durch einen IT-Dienstleister, einem Cloud-Provider. Bei diesem Cloud-Dienst werden dem Anwender alle Infrastruktur-Komponenten wie die Server, Rechenleistung, Netzkapazitäten, Kommunikationsgeräte, Speicher, Archivierungs- und Backup-Systeme und andere Komponenten der RZ- und Netzinfrastruktur von einem Cloud-Service-Provider zur Verfügung gestellt. Der Anwender kann über breitbandige Netze auf diese virtuellen Services zugreifen Abgerechnet und rechnet wird nach der tatsächlichen Nutzung. IaaS-Angebote umfassen die Rechner-Hardware, das Netzwerk mit seinen Firewalls und Routern, benutzerspezifische virtualisierte Plattformen und die Dienstgütevereinbarungen (SLA). Neben den Kostenvorteilen haben die Anwender die Vorteile, dass sie mit vorkonfektionierten Umgebunden und immer mit modernster Technologie und sicheren Plattformen arbeiten, sie sich nicht um die Upgrades, den Betrieb und die Wartung kümmern müssen, Belastungsspitzen besser auffangen und durch Skalierung eine bedarfsgerechte Anpassung vornehmen können.Angebote an Infrastructure-as-a-Service gibt es von vielen namhaften Soft- und Hardware-Anbietern, u.a. von IBM, Hewlett Packard, Microsoft, Sun.
  • PaaS (IT-Lexikon) Platform as a Service (PaaS) ist ein Cloud-Dienst, bei dem der Cloud-Provider dem Anwender eine Entwicklungsumgebung in Form eines Frameworks bereitstellt. Mit diesem Cloud-Dienst und den darin zur Verrfügung gestellten Programmierschnittstellen können Entwicklern über das Cloud-Computing ganze Entwicklungsumgebungen mit Datenbanken, Middleware und Anwendungssoftware angeboten werden. Dies dürfte für Webapplikationen besonders interessant sein, weil damit dem Anwender eine Infrastruktur für die Entwicklung hochperformanter PHP-Anwendungen zu Verfügung steht. Über standardisierte Schnittstellen kann der Anwender über das Internet auf das entsprechende Framework zugreifen. Er verfügt immer über die aktuellen Versionen, braucht sich nicht um Upgrades zu kümmern und hat keine Downloads oder Installationen. Die Abrechnung des PaaS-Dienstes erfolgt wie bei anderen Cloud-Dienst-Modellen in Abhängigkeit von der Nutzung. Nachteile könnten dann entstehen, wenn der Anwender proprietäre Programmiersprachen benutzt, die der Cloud-Provider nicht bereitstellen kann. Es gibt bereits ein umfangreiches Angebot an PaaS-Services. so u.a. von Salesforce, Microsoft Force.com und Google.
  • SaaS (IT-Lexikon) Software as a Service (SaaS) bedeutet Software als Service. Das Saas-Modell, das dem Konzept der Application-Service-Provider (ASP) sehr ähnlich ist, basiert darauf, dass der Kunde seine Software nach Bedarf aus dem Internet als Software on Demand herunterlädt. Das SaaS-Konzept mit seinem On-Demand-Computing entstand durch die stärker werdende Einbindung des Internet in private und geschäftliche Anwendungen und damit der Entwicklung des Cloud-Computing. Da beim SaaS-Ansatz die Kosten für den Betrieb der informationstechnischen Systeme in den Verantwortungsbereich des Anbieters fallen, ist die Nähe zu Application-Service-Providern unverkennbar. SaaS-Konzepte sollen die Kosten für den ITK-Bereich senken. Das tun sie weil keine Lizenzgebühren anfallen und weil die Kosten für die zeitintensive Einführung, den Betrieb, die Pflege von Anwendungen und den Unterhalt wesentlich geringer ausfallen. Als Web-basierte Dienstleistung mit On-Demand-Verfügbarkeit gehen viele Kosten auf den Provider über. Ein weiterer Aspekt ist die Skalierbarkeit von SaaS-Lösungen und die damit in Zusammenhang stehende hohe Flexibilität. Der Cloud-Provider muss jederzeit flexibel auf neue Anforderungen der Kunden reagieren, ganz gleich ob höhere Leistungen, größere Kapazitäten, neue Anwendungen oder 24-Stunden-Service gefragt sind. Weitere Aspekte sind neben den administrativen und organisatorischen vor allem die sicherheitsrelevanten, da der IT-Sicherheit eine entscheidende Rolle zukommt, die damit, zumindest teilweise, vom SaaS-Provider übernommen wird. Für Software as a Service gibt es verschiedenste Abrechnungsmodelle. So kann das Abrechnungsmodell auf der Anzahl an Benutzern pro Monat basieren. Der Servicenehmer zahlt dabei einen monatlichen Festbetrag für jeden angemeldeten Nutzer. Bei einem anderen Kostenmodell erfolgt die Bezahlung nach dem Funktionsumfang und die Anzahl an Benutzern. Je höher der Funktionsumfang, desto höher die monatlichen Kosten. Es gibt auch Kostenmodelle bei dem der SaaS-Anbieter eine Grundversion kostenlos zur Verfügung stellt und erst den erweiterten Funktionsumfang in Rechnung stellt.
  • "On Premise" Beschreibt die Möglichkeit eine Mischform aus bestehenden Modellen / bestehnder IT - Infrastruktur (On-Premise) und der Cloud (z.B. Hybrid Cloud) zu bilden.
  • Off-Premise Neue Funktionen und Services die extern (Off-Premise) über einen Dienstleister dazugekauft und mit der bestehenden Infrastruktur (On-Premise)verknüpft werden können.
  • Plesk Plesk ist eine Webserver-Distribution mit Konfigurationstool für Webhosting, welches vom Hersteller Parallels Inc. (ehemalige SWsoft Inc.) sowohl für Unix als auch für Microsoft Windows entwickelt wurde. Dieses für Webhoster kostenpflichtige Produkt wird von verschiedenen Internetdienstanbietern eingesetzt. Plesk gilt im Vergleich zu Confixx als funktionsreicher, die Lizenzen sind aber gestaffelt nach der Anzahl der zu verwaltenden Domains. Nutzer können damit Server verwalten, ohne eingehende Kenntnisse über das Betriebssystem haben zu müssen, und es vereinfacht das Durchführen von komplexen Vorgängen, wie das Einrichten eines Mail- und Webservers für eine Domain. Seit Version 9 besteht die Möglichkeit bei Update/Installation zwischen Postfix und qmail zu wählen. In Plesk stehen fünf Login-Rollen mit eigenen Rollen und Verantwortlichkeiten zur Verfügung: Administrator – Das höchste individuelle Server-Login, mit dem Web-Hosting-Administratoren alle Systemfunktionen einrichten und verwalten können. Mehrere Server können zentral mit dem Master-Level-Login von Plesk Expand verwaltet werden. Die zweithöchste Login-Ebene, auf der die Benutzer vom Systemadministrator Rechte zur Domain-Erstellung erhalten. Kunde – Die dritthöchste Login-Ebene. Kunden können hier mit einem einzigen Login Gruppen von Domains administrieren. Domain-Besitzer – Dies sind Accounts von Domain-Besitzern auf der dritthöchsten Ebene mit vorgegebenen Berechtigungen und einer Benutzeroberfläche für die Administration einer einzelnen Domain. Mail-Benutzer – Dies ist der individuelle Mail-Account auf der vierthöchsten Ebene, mit dem der Benutzer sich in seine eigene Benutzeroberfläche einloggen und Passwörter, Spamfilter, Virenschutz-Einstellungen u.v.m. verwalten kann.
  • Omni-Channel E-Commerce Omni-Channel E-Commerce Lösungen & Multistore Management Mit Multistore-Lösungen betreiben und verwalten Sie innerhalb nur einer Installation beliebig viele Webshop-Mandate für effektiven und skalierbaren Global E-Commerce. Durch die reduzierte Komplexität können signifikante Kosteneinsparungen realisiert werden. Global agierende Unternehmen mit verschiedenen Webshops weltweit benötigen effektive E-Commerce-Lösungen, die beliebig skalierbar sind und sich flexibel an unterschiedliche Zielmärkte anpassen lassen. Dabei brauchen Unternehmen effektive Tools, um effizient und mit minimalem Aufwand u. a. verschiedene Sprachen, Währungen, Bezahl- oder Versandmethoden anbieten und steuern zu können. Tools für effektives Multistore Management Zentrales Administrations-Panel: Über ein gemeinsames Administrations-Panel können beliebig viele Online-Shops globaler Unternehmen zentral verwaltet werden. Globale Einstellungen: Moderne E-Commerce-Systeme lassen sich flexibel konfigurieren und ermöglichen das Festlegen globaler Standard-Einstellungen. Dadurch können Unternehmen für alle Sprach- und Ländersites einheitliche Standards definieren, die zur konsequenten Einhaltung der Corporate Identity beitragen. Personalisierte Shopansicht für unterschiedliche Nutzer: Die Nutzeransicht von Webshops lässt sich bei Enterprise E-Commerce Systemen individuell festlegen. So kann z. B. eine angepasste Ansicht für Frauen und Männer zur Steigerung der User Experience definiert werden oder man nutzt Geo-IP Detection um regional passende Promotions zu platzieren. Individuelle Preisgestaltung: Für globale Webshops lassen sich Preise je nach Zielmarkt individuell festlegen. Unternehmen können damit z. B. Umrechnungskurse oder Steuern für das jeweilige Land individuell in der Preisgestaltung berücksichtigen. Case Study Riovo (Angry Birds): https://www.aoe.com/de/projekte/angry-birds.html
  • CMS Content-Management-Systeme (CMS) sind Systeme für die Verwaltung und Administration von Content, insbesondere von Website-Inhalten. Sie halten die Daten medienneutral bereit und stellen den Content den verschiedenen Präsentationsplattformen zur Verfügung. Im Laufe der Jahre haben sich CMS-Systeme von Web-Tools zur Erstellung und Pflege von Websites und Web-Inhalten zu übergreifenden Informationsplattformen entwickelt, auf denen alle Aspekte des E-Business abgewickelt werden. Solche webbasierten Systeme werden auch als Web Content Management System (WCMS) bezeichnet. Waren die ersten CMS-Systeme in den Jahren 1996 ausschließlich auf das visuelle Design der Websites fokussiert, so kamen später weitere Funktionalitäten, wie das Publizieren von unterschiedlichen Inhalten, die Nutzung von Workflow, das Content-Management und modernere Software-Architekturen, Java-basierend, hinzu. Ein weiterer Schritt war die Dynamisierung von Vorgängen und Abläufen, die Personalisierung und die Integration von Anwendungen. Hinzu kamen die verschiedenen Systemausprägungen für den Enterprise-Bereich, das Enterprise Content Management System (ECMS), und für die Verwaltung und Administration von Websites, das Web Content Management System (WCMS). Beispiele für Open Source CMS-Systeme sind Wordpress, Drupal, Typo3 und Joomla. Moderne CMS-Systeme verfügen über Automatismen um Fehler im Content respektive im Angebot erkennen zu können. Diese Freigaberoutinen kontrollieren den Content, Texte als auch Bilder, automatisch. Desweiteren verfügen sie über ein Task-Management und eine Workflow-Steuerung. Effiziente Sicherheitsmechanismen auf Workflow-Basis, eine Qualitätskontrolle mit Fehlererkennung und -behebung sowie das direkte Zusammenarbeiten von Content-Spezialisten und Systemprogrammierern gehören zu den Anforderungen an eine moderne CMS-Architektur. Die CMS-Architketur. Die Architektur von Content-Management-Systemen (CMS) ist geprägt durch das Repository, einer relationalen Datenbank für Dokumente und Metadaten. Der Content-Server kommuniziert mit dieser Datenbank und dem Anwender. Bei dynamischen Websites überträgt das CMS-System die angeforderten Daten auf eine Datenbank auf die ein Anwendungsserver direkten Zugriff hat. Dieser holt sich die Seiten aus dem Datenspeicher und setzt sie laufzeitmäßig zusammen. Bei statischen Seiten werden diese als HTML-Seiten direkt auf den Webserver exportiert. Die Application- und Webserver befinden sich in einer demilitarisierten Zone (DMZ), die beidseitig durch Firewalls geschützt ist.