Title:

Internetstandards

Description:  Die optimale Strategie berücksichtigt die für jede Entscheidung unterschiedlichen relevanten Kontextvariablen sowie die Verhaltensweise der Konsumenten.
Author:Fabian Nappenbach
deutsch
  
ISBN: 3423050012   ISBN: 3423050012   ISBN: 3423050012   ISBN: 3423050012 
 
  Wir empfehlen:       
 

Diplomarbeit

 

zum Thema

 

Internetstandards


Strategische Bedeutung und Durchsetzung

 

zur Erlangung des wissenschaftlichen Grades Diplom-Kaufmann

der Wirtschafts- und Sozialwissenschaftlichen Fakultät

der Universität Augsburg

 

eingereicht am

Extraordinariat für Angewandte Psychologie

Prof. Dr. Martin Stengel

 

Betreut von

Dipl. Kfm. Jan Rehde

 

vorgelegt von

Fabian Nappenbach

 

Ratingen, den 22. Juni 1998

 


Inhaltsverzeichnis

Abbildungsverzeichnis

TabellenverZeichnis

Abkürzungsverzeichnis

 

1   Einleitung

2   Analyse des Untersuchungsobjektes

2.1  Standards

2.2  Kompatibilitätsstandards

2.3  Offenheit

2.4  Systemgeschäfte

2.5  Standardisierungsprozesse

2.6  Internetstandards

2.6.1   Bestehende Standards

2.6.1.1 Netzschicht

2.6.1.2 Adressierung

2.6.1.3 Datentransport

2.6.2   Umkämpfte Standards

2.6.2.1 Darstellung

2.6.2.2 Aktive Inhalte

2.7  Schlüsselfiguren

2.7.1   Firmen

2.7.1.1 Marktbeherrschende Firmen

2.7.1.2 Startups

2.7.1.3 Die wichtigsten „Player

2.7.1.3.1Netscape

2.7.1.3.2Microsoft

2.7.1.3.3Sun Microsystems

2.7.2   Standardisierungsgremien

2.7.2.1 ISO

2.7.2.2 Internet Engineering Task Force (IETF

2.7.2.3 W3C

2.7.3   Kunden

2.7.3.1 Großkunden

2.7.3.2 Lead User

2.7.3.3 Normaluser

2.7.4   Staat


3   Standardisierung als strategischer Erfolgsfaktor

3.1  Standard Portfolio

3.2  Die Dimension Offenheit

3.2.1   Adaption

3.2.2   Eigentumsrechte

3.2.3   Innovation

3.3  Die Dimension Verbreitung

3.4  Strategische Implikationen

3.4.1   Normstrategien

3.4.2   Risiken

3.4.3   Chancen

4   Etablierung von Standards

4.1  Verhalten der Anwender

4.1.1   Nutzenmaximierung

4.1.2   Unsicherheit

4.1.3   Loyalität

4.1.4   Neugier

4.2  Kontextfaktoren der Angebotsseite

4.2.1   Finanzielle Mittel

4.2.2   Image

4.2.3   Marktstruktur

4.2.4   Technologie

4.2.5   Nachfragemacht

4.3  Maßnahmen zur Etablierung eines Standards

4.3.1   Produktpolitik

4.3.1.1 Leistung

4.3.1.2 Kompatibilität

4.3.1.3 Integration

4.3.1.4 Sortimentspolitik

4.3.1.5 Time to Market

4.3.2   Preispolitik

4.3.3   Distributionspolitik

4.3.4   Kommunikationspolitik

4.3.5   Machtpolitik

4.3.5.1 Allianzen

4.3.5.2 Standardisierung durch ein Gremium

4.3.5.3 Rechtsweg

5   Fazit

Literaturverzeichnis

 

  

 

 

Abbildungsverzeichnis

Abbildung 1: Dimension und Stufe der Kompatibilität

Abbildung 2: Standardisierungs-Portfolio: Versuch der Klassifizierung
              von Standards anhand der Dimensionen Offenheit und Verbreitung

Abbildung 3: Portfolio für die Nachfrager

Abbildung 4: Portfolio für die Anbieter

Abbildung 5: Kundennutzen in Abhängigkeit von Verbreitung und Leistung

Abbildung 6: Anbieter- und Kunden Akzeptanz in Abhängigkeit von Offenheit und Verbreitung

Abbildung 7: Leistungs- / Kompatibilitäts-Tradeoff im Duopol

 

 

 

 

TabellenverZeichnis

Tabelle 1: Formen von Produktstandards

Tabelle 2: Klassifizierung bezüglich Offenheit

 

Abkürzungsverzeichnis

AGP

Advanced Graphics Port

ANSI

American National Standards Institute

AOL

America Online

ARPA

Advanced Research Agency

AVI

Audio-Video-Interleaved

CDMA

code division multiple access

CERN

Conseil Européenne pour la Recherche Nucléaire

D2-MAC

Duobinäre Codierung - Multiplexed Analogue Components

DCC

Digital Compact Cassette

DIN

Deutsches Institut für Normung

DNS

Domain Name Server

DOJ

Department of Justice

e.D.

elektronisches Dokument

EDV

elektronische Datenverarbeitung

ETSI

European Telecommunications Standard institute

EU

Europäische Union

F&E

Forschung und Entwicklung

FTP

File Transfer Protocol

GSM

Global system for mobile communications

HTML

Hypertext Markup Language

IE

Internet Explorer

IEC

International Electro-Technical Committee

IETF

Internet Engineering Task Force

INRIA

Institut National de Recherche en Informatique et en Automatisation

IP

Internet Protocol

ISA

Industry Standard Architecture

ISA

International Federation of the National Standardization Associations

ISO

International Standards Organization

ISP

Internet Service Provider

ITU

International Telecommunications Union

JVM

Java Virtual Machine

MD

Mini Disc

MIME

Multipurpose Internet Mail Extension

MIT

Massachusetts Institute of Technology

MS

Microsoft

MS DOS

Microsoft Disk Operating System

NC

Net Computer

NCP

Network Control Protocol

NCSA

National Center for Supercomputing Applications der University of Illinois

NIC

Network Information Center

OEM

Original Equipment Manufacturer

OLE

Object Linking and Embedding

OS/2

Operating System 2

PAL

Phased Alternation Line

POP3

Post Office Protocol

PS/2

Personal System 2

RFC

request for comments

ROM BIOS

Read-only Memory Basic Input / Output System

SBN

Site Builder Network

SMTP

Simple Mail Transfer Protocol

TC

technical committees

TCP/IP

Transmission Control Protocol / Internet Protocol

TDMA

time division multiple access

UNO

United Nations Organization

URL

Universal Resource Locators

VT100

Virtual Terminal

W3C

World Wide Web Consortium

WWW

World Wide Web

 

1         Einleitung

Der späte Boom des Internets der, Mitte der 90er Jahre, als fast drei Jahrzehnte nach den Anfängen einsetzte, sowie das daraus resultierende Aufkommen einer völlig neuen Industrie hat wohl jedermann überrascht. Das plötzliche Erscheinen des Internet wird in Schwartz´ und Leydens Zukunftsvision „The Long Boom“ als eine Art Urknall bezeichnet, der den Übergang ins Informationszeitalter einläutet.[1] Die Großen der IT Industrie in den achtziger Jahren waren somit auch nicht vorbereitet, weshalb sogenannte Startups, innovative, meist junge Unternehmen, den Markt aufgrund ihrer hohen Flexibilität schnell erobern konnten. Um so hektischer sind nun die Anstrengungen der „Alten“, dieser jungen Industrie noch rechtzeitig ihren Stempel aufzudrücken. Eine ähnliche Chance, die Schlüsseltechnologie des nächsten Jahrtausends zu prägen, dürfte so schnell nicht wieder kommen.

Anzeichen sprechen dafür, daß in Zukunft nicht nur der Datenverkehr von PC zu PC, sondern auch TV, Telefonie, Katalogshopping und der Einschaltimpuls für die heimische Waschmaschine, also buchstäblich alles, was sich in digitaler Form darstellen und übertragen läßt, über dieses weltweite Netz abgewickelt wird. Allerdings ist die Form, in der all diese Anwendungen realisiert werden sollen, noch nicht gesichert.

Das Internet befindet sich zur Zeit immer noch in der „fließenden Phase“, an deren Ende sich ein „dominantes Design“ oder Standard herausbildet. Dieser Zeitpunkt ist entscheidend für den weiteren Verlauf des Wettbewerbs.[2]

Auf dem vollkommenen Markt der ökonomischen Theorie wäre Standardisierung kein Grund für Kopfschmerzen in den Führungsetagen: Die verschiedenen Teilnehmer im IT Markt würden sich, sobald eine neue Technologie zur Marktreife gelangt, auf die uneingeschränkte Kompatibilität ihrer Produkte einigen. Die dabei gewählte Lösung wäre technisch ideal und würde dem Kunden zu fairen Preisen angeboten, so daß dieser risikolos zugreifen könnte. Es gäbe keine Reibungsverluste durch „Standardisierungskriege“, keine Kosten zur Überwindung von Inkompatiblität und keine „sunk costs“ durch gescheiterte Standards.

In der realen Welt existieren allerdings eine Menge Anreize, einen Standard „auf eigene Faust“ durchzusetzen. Dazu gilt es vor allem den wiederum nicht vollständig rational handelnden Kunden von der Vorteilhaftigkeit bzw. Zukunftssicherheit des eigenen Produktes zu überzeugen. Diese sind durch die unklaren Verhältnisse verunsichert und lassen sich durch Aspekte jenseits von Qualität in ihren Entscheidungen beeinflussen.

Ein Unternehmen, das in diesem Markt operiert, steht vor zwei grundsätzlichen Entscheidungen: Welche Form der Kompatibilität strebe ich an? Wie setze ich die gefällte Entscheidung durch?

Die möglichen Antworten auf die erste Frage reichen von der Kooperation mit anderen Markteilnehmern zur Schaffung eines offenen Standards bis hin zur Eigenentwicklung, die über keine offenen Schnittstellen zu Produkten anderer Hersteller verfügt. Jede Entscheidung impliziert andere Chancen und Risiken hinsichtlich Durchsetzbarkeit und realisierbarer Erlöse, die im ersten Hauptteil dieser Arbeit identifiziert werden sollen.

Sobald unter Berücksichtigung aller Faktoren eine ideale Antwort auf die erste Frage gefunden ist, gilt es eine Strategie zu entwickeln, die am Markt erfolgreich umsetzbar ist. Die optimale Strategie berücksichtigt die für jede Entscheidung unterschiedlichen relevanten Kontextvariablen sowie die Verhaltensweise der Konsumenten.

Durch theoretische Überlegungen und Analyse von Regelmäßigkeiten anhand verschiedener Musterbeispiele lassen sich zwar nicht komplette Patentrezepte für erfolgreiche Strategien ableiten, wohl aber wertvolle Intelligenzverstärker für Entscheidungsträger gewinnen.

Für konstruktive Kritik, wertvolle Tips, unendliche Diskussionen und geduldiges Korrekturlesen bedanke mich bei den Teilnehmern des Diplomandenseminars „Zukünfte des Internet“ am Lehrstuhl Stengel, meinem Betreuer Jan Rehde, Sascha Hörmann, Claus Ehrenberg, Frank Henkies, Paul Nappenbach, Martin Rösiger, Caro Wiedmann und bei meiner Frau Anke.

2         Analyse des Untersuchungsobjektes

2.1      Standards

In praktisch allen Lebensbereichen treffen wir auf Standards: von festgelegten Werteinheiten für Gewichte oder Entfernungen über verschiedene Sprachen bis hin zum Linksfahrgebot in Großbritannien.[3]

Sie werden benötigt, wann immer zwei voneinander unabhängige Parteien miteinander reibungslos kooperieren wollen. Die Trennlinie zwischen diesen Parteien bezeichnet man als Schnittstelle.[4]

Das Duden-Fremdwörterbuch nennt als Synonyme für Standard “Normalmaß” und „Durchschnittsmuster“.[5] Diese Bezeichnungen sind zurückzuführen auf die sogenannten Abmessungsstandards, deren Entstehung die industrielle Massenfertigung erst ermöglichte.

Die Notwendigkeit zur Definition von Standards entstand mit dem Übergang von der Einzelfertigung zur Fabrikfertigung. Im Gegensatz zur vertikalen Arbeitsteilung, bei der produktartenspezifisch spezialisiert wurde, ist bei der darauf folgenden horizontalen Arbeitsteilung der gesamte Fertigungsprozeß in einzelne Tätigkeiten zerlegt worden. Diese Dekomposition erfordert Koordination an den Schnittstellen.[6]

Als Beispiel dient hier die Produktion eines Tisches. Werden alle Arbeitsschritte von einem einzigen Schreiner gefertigt, so braucht dieser nur darauf zu achten, daß die Beine und die dazugehörigen Löcher in der Platte jeweils gleich groß sind. Wird der Tisch dagegen von verschiedenen Personen angefertigt, müssen sich die zuständigen Arbeiter für Beine und Platten im Voraus auf ein einheitliches Maß einigen, das für alle Tische gelten soll. Verwenden nun mehrere Schreinereien die gleichen Maße, ist weitere Spezialisierung möglich.

Auch Fließbandarbeit wäre undenkbar, wenn jeder Arbeiter unterschiedliche Mutterngrößen und Schraubenschlüssel verwenden würde.

In der deutschen Produktionslehre wird diese Form der Standardisierung als „Normung“ bezeichnet. Das DIN (Deutsches Institut für Normung, siehe Abschnitt 2.7.2.1) definierte Normung 1974 als „die planmäßige, durch interessierte Kreise gemeinschaftlich durchgeführte Vereinheitlichung von materiellen Gegenständen zum Nutzen der Allgemeinheit. Sie darf nicht zu einem wirtschaftlichen Sondervorteil einzelner führen.“[7] Speziell auf die letztgenannte Forderung wird im Rahmen dieser Arbeit noch näher eingegangen (siehe Kapitel 3).

Adam nennt als Effekte der Standardisierung von Produktionsprozessen Ersparnisse von Material, Arbeitszeit, Organisation und Kontrolle. Sie ermöglicht die Fertigung höherer Stückzahlen als bei vertikaler Einzelfertigung. Der Aufwand an Zeit, Material etc. kann gesenkt werden, indem gezielt Planungsmethoden zum Einsatz kommen. [8]

Die ISO (siehe Abschnitt 2.7.2.1) definiert Standard wie folgt: ”Standards are documented agreements containing technical specifications or other precise criteria to be used consistently as rules, guidelines or definitions of characteristics, to ensure that materials, products, processes and services are fit for their purpose.”[9]

Neben den Standards für verschiedene Maße, für Produktionsprozesse etc. führt Jeltem die Produktstandards an, welche er wiederum in Qualitätsstandards und Kompatibilitätsstandards unterteilt.[10] Erstere definieren eine festgelegte Qualität als Mindestanforderung an bestimmte Güter. Ein Beispiel dafür ist die von der „Society of Automobile Engines“ 1926 verabschiedete Einteilung der Motoröle gemäß ihrer Viskosität.[11]

Ein Kompatibilitätsstandard soll verhindern, daß Produkte verschiedener Hersteller nur unzulänglich zusammenarbeiten. Er beschreibt eine technische Spezifikation für ein Produkt oder für die Schnittstellen mehrerer interagierender Produkte, die von der Mehrzahl der Anbieter als verbindlich akzeptiert wird. Somit ist der Kompatibilitätsstandard ein vom Markt geschaffenes und anerkanntes Problemlösungskonzept (siehe auch Abschnitt 2.2).[12]

Gemäß Kleinaltenkamp werden Produktstandards anhand der Kriterien Kodifiziertheit und Vorhandensein von Kompatibilitätseffekten differenziert. Kodifiziert sind Standards, sofern sie „irgendwo und möglicherweise für viele zugänglich schriftlich niedergelegt“ sind, und es sich nicht „lediglich um eine in den betreffenden Verkehrskreisen verbreitete, allgemeine Vorstellung handelt“.[13]

Die Unterscheidung nach dem Vorhandensein von Kompatibilitätseffekten ist deshalb sinnvoll, weil sich daraus unterschiedliche Möglichkeiten für die Errichtung von Markteintrittsbarrieren ergeben. Tabelle 1 stellt die aus dieser Unterscheidung resultierenden möglichen Formen von Produktstandards dar:

 

Kodifizierter Standard

Unkodifizierter Standard

 

Mit Kompatibilitätseffekten

1)              

Unternehmensübergreifend geltender Firmenstandard
z.B. MS Windows

Bestimmte Normen
z.B. DIN

2)

Integrale Produkt- bzw. Systemgestaltung (Systemeffekt)
z.B. Baustil in einem Stadtviertel

 

Ohne Kompatibilitätseffekte

3)

Bestimmte Normen
z.B. Planungs-, Prüf-, Stoff- und Verfahrensnormen

4)

Dominantes Design

Dominante Produktgestalt

Dominante Produktkonfiguration

z.B. Vierzylinder Motoren

 Tabelle 1: Formen von Produktstandards[14]

Im Rahmen dieser Arbeit werden speziell die Kompatibilitätsstandards gemäß Jeltem bzw. die kodifizierten und unkodifizierten Produktstandards mit Kompatibilitätseffekten gemäß Kleinaltenkamp näher untersucht. Die Analyse dieser Standards geschieht unter Bezugnahme auf die aktuellen Geschehnisse im Bereich der Internettechnologie, insbesondere der für die Internetnutzung notwendigen Software.

2.2      Kompatibilitätsstandards

Der in Abschnitt 2.1 erwähnte Begriff der Kompatibilität soll an dieser Stelle näher erläutert werden. Kleinaltenkamp liefert beispielsweise eine sehr ausführliche Definition:

„[Als] Kompatibilität eines Produktes [kann] die Tatsache angesehen werden, daß seine Funktionsfähigkeit nur dadurch gewährleistet wird, daß solche Produktelemente, die Schnittstellen mit anderen Produkten bilden bzw. an derartigen Positionen angesiedelt sind, bestimmten – vor allem technischen – Spezifikationen entsprechen. Diejenigen Produkte, mit denen das betreffende Produkt einen Funktionszusammenhang bildet, müssen an den entsprechenden Schnittstellen ebenfalls diesen Feststellungen genügen, damit die gewünschte gemeinsame Funktionserfüllung erst möglich wird.“[15]

 

In einfachen Worten sichert Kompatibilität die reibungslose Zusammenarbeit zweier Geräte an den Schnittstellen, gleichgültig ob sie über dieselbe technische Spezifikation verfügen oder ob es sich um technisch unterschiedliche Schnittstellen handelt. Wenn allerdings beide Schnittstellen über dieselbe technische Spezifikation verfügen, erleichtert dies die Zusammenarbeit, da nicht erst Lösungen wie beispielsweise Adapter für die Überbrückung der Unverträglichkeit gefunden werden müssen. Kompatibilität ist das Ziel, Standardisierung der Lösungsweg, Kompatibilität zu erreichen.

Die Bedeutung der Kompatibilität liegt nicht allein in der Tatsache, daß Produkte zusammen funktionieren, sondern sich gegenseitig ergänzen. Kompatibilität wird von den Herstellern bewußt geschaffen, da durch das Vorhandensein eines kompatiblen Gutes der Bedarf nach einem zweiten, komplementären und kompatiblen Gut erst entsteht. So führt beispielsweise der erhöhte Absatz von Filmkameras automatisch zu einer höheren Nachfrage nach Filmen.[16]

Diese bewußte Verträglichkeit unterscheidet kompatible Produkte von sogenannten Ergänzungsprodukten wie etwa Brot und Butter, bei denen die Absatzsteigerung eines Produktes ebenso zu mehr Absatz des zweiten führt.[17]

Insbesondere auf dem EDV-Sektor kommt der Kompatibilität große Bedeutung zu. Im allgemeinen sind zwei Computer dann kompatibel, wenn ohne größeren Aufwand Programme (Software) und Zubehör (Hardware) auf beiden Systemen verwendet werden können. Das Betriebssystem MS DOS (Microsoft Disk Operating System) kann sowohl auf PCs von Compaq als auch von IBM genutzt werden, nicht aber auf den inkompatiblen Rechnern der Firma Apple. Die Abstufungen von Kompatibilität bis Inkompatibilität der Hard- und Softwarekomponenten eines EDV-Systems sind nahezu unendlich. So ist es zum Beispiel vorstellbar, daß zwei Rechner zwar die gleiche Software verwenden, bestimmte Hardwarekomponenten aber nur auf einem der softwarekompatiblen Rechner einsetzbar sind wie z.B. die neuen Grafikkarten nach dem AGP (Advanced Graphics Port) Standard oder sogenannte PS/2 (Personal System 2) Mäuse. Im Beispiel der PS/2 Mäuse überbrücken jedoch wiederum Adapter die vormals inkompatible Schnittstelle der PS/2 Mäuse und sorgen für reibungslose Zusammenarbeit.

Ferner bedürfen die Begriffe Abwärts- und Aufwärtskompatibilität, die häufig im Zusammenhang mit der Weiterentwicklung von Kompatibilitätsstandards fallen, einer näheren Betrachtung. Sie sollen an folgendem Beispiel erläutert werden: Das ursprüngliche Produkt P1 ist zu seinen komplementären Zusatzgeräten derselben Generation Z11, Z12 und Z13 kompatibel. Verbesserungen und Modifikationen führen zur Weiterentwicklung von P1, weshalb das Produkt in der nächsten Generation als P2 bezeichnet wird. In der Regel arbeiten die Zusatzgeräte der ersten Generation Z11, Z12 und Z13 problemlos mit P2 zusammen. Diese Eigenschaft wird als Abwärtskompatibilität von P2 bezeichnet. Im zweiten Fall werden auch die Zusatzgeräte weiterentwickelt, um beispielsweise neue Eigenschaften von P2 besser zu unterstützen. Die neue Generation Z21, Z22 und Z23 arbeitet zwar optimal mit P2 zusammen, jedoch unterstützt das Gerät der ersten Generation P1 die Merkmale der neuen Zusatzgeräte entweder nur unzureichend oder gar nicht. Dieser Fall wird auch als mangelnde Aufwärtskompatibilität von P1 bezeichnet.

Kompatibilität ist keine eindimensionale Eigenschaft von Produkten, die kompatibel und inkompatibel unterscheidet. Sie existiert in unterschiedlichen Ausprägungsgraden entlang zweier Dimensionen: Hersteller­übergreifende Kompatibilität und modellübergreifende Kompatibilität.[18]

Als weiteres Beispiel den EDV-Bereich, sei auf die verschiedenen Ebenen eines Computer- oder Telekommunikationssystems hingewiesen (OSI-Referenz­modell), auf dessen „unterster“ Ebene der reine Datentransfer in Form von Bitcodes stattfindet und auf dessen höheren Schichten komplexe Protokolle für die reibungslose Kommunikation sorgen.[19] Angenommen, ein Gerät kann nur die Daten und Protokolle der unteren drei Ebenen verarbeiten, ist es nur bedingt kompatibel. Ist es hingegen möglich, ein Zusatzgerät einfach mittels Stecker und ohne weitere Modifikation anzuschließen, ist das Zusatzgerät voll kompatibel.

Herstellerübergreifende Kompatibilität sichert die unterschiedlichen Ausprägungen des Zusammenspiels zwischen Geräten verschiedener Hersteller. Die modellübergreifende Kompatibilität sorgt hingegen für die Sicherung der im vorhergehenden Abschnitt erläuterten Abwärts- und gegebenenfalls auch Aufwärtskompatibilität mehrerer.[20]

Die Ausprägungsgrade der hersteller- und modellübergreifenden Kompatibilität spannen ein Portfolio auf, in dem jedes Produkt hinsichtlich seiner Kompatibilität positioniert werden kann. Liegt sowohl hersteller- als auch modellübergreifende Kompatibilität vor spricht man von einem Industrie-Standard.[21]

Abbildung 1: Dimension und Stufe der Kompatibilität


2.3      Offenheit

Ein wesentliches Unterscheidungskriterium für Standards sind die Eigentumsrechte, die der Erfinder daran geltend macht (siehe Abschnitt 3.2.2). Standards sind geistiges Eigentum und als solches Gemeingüter, das heißt, ihr Verbrauch ist nicht rivalisierend.[22] Um die beträchtlichen Investitionen bei der Errichtung eines Standards zu sichern muß er Eigentumsrechtlich geschützt werden. Dieser rechtliche Schutz ist in verschiedenen Abstufungen möglich.

 

 

Beschränkter Zugang

 

Offener Zugang

 

 

Eigentumsrechtlich geschützt

1) „Geschlossener Firmenstandard

z.B.      Polaroid
            Nintendo
            Apple Macintosh (früher)

2) „Halboffener Firmenstandard

z.B.      Windows
            VHS
 

 

Öffentlich

3) (nicht möglich)[23]

4) „Offener Standard

z.B.      ISO Standards
            HTML
            Linux
            Java   

 

 

 

Tabelle 2: Klassifizierung bezüglich Offenheit[24]

 

In seiner stärksten Form darf nur der Erfinder des Standards entsprechende Produkte und Zusatzprodukte anbieten. Somit fließen ihm alle Einnahmen aus allen Produkten dieses Standards zu. Dieser Fall wird im Folgenden „geschlossener Standard“ genannt (1). Diese Lösungen wird auch als „proprietär“ bezeichnet.

Bei einem geschützten Standard mit offenem Zugang (2) ist es dagegen anderen Firmen erlaubt, Zubehör oder gar kompatible Produkte herzustellen. Sie tragen dadurch zur Verbreitung des gesamten Standards bei. Die Entscheidung, ob andere Teilnehmer Lizenzgebühren entrichten müssen liegt beim Erfinder. Die verschiedenen Varianten dieser Kategorie werden in der Kategorie „halboffene Standards“ zusammengefaßt.

Ein öffentlicher Standard, der in keiner Weise für irgendjemanden eingeschränkt ist (3), im Folgenden „offener Standard“ genannt, kann auf verschiedene Weise entstehen, als das Ergebnis eines standardübergreifenden Wettbewerbs oder durch Weisung eines Gremiums (siehe Abschnitt 2.4). Er unterscheidet sich vom halboffenen Standard dadurch, daß die Kontrolle nicht mehr bei einer Firma allein liegt, und auch niemand die Pflicht hat, ihn zu pflegen.[25] Er kann von einer einzigen Firma ins Leben gerufen worden sein, ist aber inzwischen frei für alle. Im Falle von UNIX[26] ist diese Offenheit dem Antitrust Verfahren zu verdanken, in dem AT&T durch das amerikanische Justizministerium zur Auflage gemacht wurde, UNIX Lizenzen an alle zu vergeben, die daran interessiert waren.[27]

2.4      Systemgeschäfte

Kompatibilitätsstandards sind insbesondere bei Systemgeschäften von Bedeutung. Als Systemtechnologie werden Kombinationen aus serien- und einzelgefertigten Produkten bezeichnet, die über ein bestimmtes Integrationskonzept, die sogenannte Systemarchitektur, miteinander verbunden sind.[28] Durch die sukzessive Beschaffungsreihenfolge sind die einzelnen Kaufakte durch zeitraumbezogene Verbundwirkungen gekennzeichnet, welche die Basis für langfristige Austauschbeziehungen sind“.[29] Im Falle der Informationstechnologie weisen die verwendeten Systemtechnologien sehr kurze Lebenszyklen auf, wodurch hohe Ansprüche an die Flexibilität gestellt werden, um neu entwickelte Komponenten reibungslos integrieren zu können.[30]

Durch die Integration von Teiltechnologien gemäß einer Systemphilosophie entstehen Systemarchitekturen. Nach dem Initialkauf ist der Kunde bei Folgekäufen an diese Architektur gebunden. Man spricht von einem "lock in".[31] Ein Wechsel der Architektur und damit des Anbieters wäre mit beträchtlichen Kosten verbunden. Ein einfaches Beispiel für ein Systemgeschäft ist eine Modelleisenbahn. Diese werden in verschiedenen Maßstäben mit unterschiedlichen Spurbreiten angeboten. War der Initialkauf beispielsweise ein einfaches Schienenoval mit Zug im Format H0, müssen alle weiteren Anschaffungen dieses System berücksichtigen. Ein Wechsel auf ein anderes Schienensystem würde bedeuten nahezu alle bisher getätigten Investitionen wertlos zu machen.

2.5      Standardisierungsprozesse

Die Herausbildung eines Standards stellt nach Kleinaltenkamp das Ergebnis eines Prozesses dar, an dessen Ende bestimmte Produktmerkmale allgemein, d.h. durch Nachfrager, Anbieter sowie gegebenenfalls interessierte Dritte, akzeptiert werden.[32]

Es gibt zwei typische Prozesse zur Bildung eines Standards, von denen der eine marktwirtschaftlich geprägt ist, der andere hingegen planwirtschaftlich. Diese beiden konträren Ansätze werden als De-facto und De-jure Standards bezeichnet.

De-jure Standards werden in der Regel schon im Vorfeld der Markteinführung von einer entsprechend befugten Instanz festgelegt, beispielsweise einem Standardgremium oder einer Regierungsstelle. Sie werden teilweise auch als „offizielle Standards“ bezeichnet. Dieser bürokratische Weg ist vor allem in der EU beliebt. Die Spezifikationen für ISDN füllen mehrere Ordner. Tatsächlich genutzt werden allerdings nur wenige der vorgesehenen Leistungsmerkmale.[33]

De-jure Standards geben sowohl dem Verbraucher als auch dem Hersteller Sicherheit, indem sie „Standardisierungskriege“ und somit die Gefahr, in eine langfristig bedeutungslose Technologie zu investieren vermeiden. Für Anbieter sollen gleiche Chancen geschaffen werden.

Der Weg über die offiziellen Standardgremien wie etwa das American National Standards Institute (ANSI) oder die International Organization for Standardization (ISO) hat in der extrem schnellebigen Internet-Welt allerdings große Nachteile. Beispielsweise umfaßt der Prozeß der Standardisierung durch die ”technical committees” und ”subcommittees” der ISO insgesamt ganze sechs Phasen:


Stage 1: Proposal stage

Stage 2: Preparatory stage

Stage 3: Committee stage

Stage 4: Inquiry stage

Stage 5: Approval stage

Stage 6: Publication stage [34]

 

Ähnlich kompliziert sind die Verfahren anderer Gremien. Bei einem geschätzten Innovationszyklus für Webbrowser von knapp sechs Monaten kann ein derartiger bürokratiebeladener Prozeß kaum mit der technischen Entwicklung Schritt halten.[35] Aus diesem Grund wird im Internet fast ausschließlich der Weg zur Standardisierung über den Markt beschritten.

Ein sogenannter De-facto-Standard entsteht, wenn sich ein bestimmter, oft firmenspezifischer Standard ohne das Zutun eines Standardgremiums in dem Maße am Markt durchsetzt, daß für andere Hersteller ein Nichtunterstützen einen Wettbewerbsnachteil bedeuten würde. Inkompatible Produkte werden, abgesehen von Nischenmärkten, praktisch unverkäuflich.

Ein prominentes Beispiel ist erneut Microsoft Windows. Ursprünglich handelte es sich dabei nur um einen graphischen Aufsatz für das frühere De-facto Standardbetriebssystem MS-DOS, der aber nach und nach zu einem eigenständigen Betriebsystem weiterentwickelt wurde. Heute sind die verschiedenen Varianten von Windows[36] auf weltweit über 90 Mio. Rechnern im Einsatz, was einem Marktanteil von 90% entspricht.[37]

Der freie Wettbewerb führt jedoch nicht automatisch zu einem solch eindeutigen Ergebnis, insbesondere solange es keinen eindeutigen Marktführer gibt.[38] In den USA hat der Wettbewerb der beiden etwa gleich starken Technologien für digitalen Mobilfunk TDMA (time division multiple access) und CDMA (code division multiple access) die Entstehung eines Standards verhindert.[39] Währenddessen wird die europäische Version GSM (global system for mobile communications), das durch die ETSI (European Telecommunications Standard Institute) abgesegnet ist, in mehr als 60 Ländern weltweit benutzt.[40]

Neue Erweiterungen des Standards HTML (Hypertext Markup Language) werden sowohl von Netscape als auch von Microsoft bereits zu einer Zeit in ihre Produkte implementiert, in der die zuständigen Gremien gerade darüber nachdenken, eine Funktion als ”proposed” zu bezeichnen. Im Fall der Frames sah sich die W3C (World Wide Web Consortium) letztendlich gezwungen, diese in der von Netscape verwendeten Form aufzunehmen, obwohl sie nicht als technisch optimale Lösung galt, allerdings schon tausendfach angewandt wurde (siehe Abschnitt 2.7.2.3 und 2.6.2.1). In diesem Fall wurde somit ein De-facto Standard zum De-jure-Standard.

Welcher Standardisierungsprozess der effektivere ist, läßt sich nicht generell beantworten, da in den Gremien das Erreichen eines höchstmöglichen Grades an Gemeinwohl aller vom Standardisierungsprozeß Betroffenen im Vordergrund steht, während im Wettbewerb Unternehmen durch das Etablieren eines Standards das Ziel der Gewinnmaximierung verfolgen suchen. [41]

Der Weg über die Gremien ist zwar langsamer, gewährleistet dafür Kompatibilität und verhindert kostspielige „Standardisierungskriege“, die unter Umständen auf dem Rücken der Konsumenten ausgefochten werden. Im Gegensatz zum marktwirtschaftlichen Ansatz, bei dem ein Standard durch seine Etablierung erst entsteht, garantiert die Verabschiedung durch ein Gremium nicht automatisch, daß der Standard sich auch durchsetzt.[42] Zumal im Fall von Software Designfehler und Inkompatibilitäten leicht reversibel sind, wiegen die durch sie verursachten Kosten geringer als die Vorteile aus schneller Markteinführung und aus hartem Innovationswettbewerb.[43]

2.6      Internetstandards

Physikalisch gesehen besteht das Internet aus ein paar Computern, vielen Routern und Switches und jeder Menge Kabel. Erst die weltweite Verwendung von gemeinsamen technischen Standards hat den reibungslosen Datenaustausch ermöglicht. Das Ergebnis ist ein globaler Rechnerverbund, dessen Benutzer verschiedene Dienste, wie Kommunikation über elektronische Briefe oder die Abfrage von Informationsangeboten nutzen können.

Dieses Kapitel soll eine kurze Einführung in die wichtigsten Standards des Internet geben. Sie lassen sich analog zum OSI-Referenzmodell gemäß ihrer Zugehörigkeit zu verschiedenen Schichten charakterisieren. Dabei fällt auf, das die unteren Schichten weitgehend standardisiert sind, während „Standardkriege“ vornehmlich in den oberen Schichten stattfinden.

Eine detaillierte Beschreibung der technischen Vorgänge, insbesondere auf der Ebene der unteren Netzwerkschichten, wäre das eigentliche Erkenntnisziel dieser Arbeit nicht dienlich.

2.6.1   Bestehende Standards

Die nachfolgend beschriebenen Standards stellen das Fundament des Internets dar. Ihnen ist gemein, daß keine Firma ein verstärktes Interesse an ihrer eigenmächtigen Gestaltung hat.

2.6.1.1       Netzschicht

Das Netzwerkprotokoll TCP/IP (Transmission Control Protocol / Internet Protokoll) basiert auf Vinton Cerfs und Bob Kahns Beitrag „A Protocol for Packet Network Interconnections“ von 1974. Es ersetzte 1982 das ursprüngliche Internetprotokoll NCP (Network Control Protocol), das seit 1970 im Einsatz war.

TCP/IP regelt die Übertragung von kleinen Datenpaketen von einem Punkt des Internet zum anderen. Vereinfacht dargestellt wird eine Datei in mehrere kleinere Stücke zerlegt. Diese werden mit einer Zieladresse und einer fortlaufenden Nummer versehen und verschickt. Dabei ist es durchaus üblich, daß sie auf dem Weg zum Adressaten verschiedene Wege durch das Netz nehmen. Erst am Ziel werden die einzelnen Pakete anhand ihrer Nummer in der richtigen Reihenfolge zusammengesetzt.

Der Vorteil dieses Verfahrens liegt in der Flexibilität. Ein Ausfall großer Teile der Netzinfrastruktur kann durch die Unabhängigkeit der Übertragung vom physikalischen Übertragungsweg kompensiert werden.[44] Hierin liegt auch der Grund dafür, daß gerade TCP/IP für das ARPANET (Advanced Research Agancy, früher DARPA mit D für Defense), dem Vorgänger des Internet, gewählt wurde. Ziel dieses Projekts des US Verteidigungsministeriums war die Errichtung eines weiträumigen Datennetzes, das auch bei einer teilweisen Zerstörung, beispielsweise durch einen Nuklearschlag, noch funktionsfähig wäre. Bei einer herkömmlichen Ring- oder Sternstruktur wäre das Netz immer nur so stark wie sein schwächstes Glied.

Das derzeit gebräuchliche IP V4 stößt langsam an die Grenzen seiner Leistungsfähigkeit und soll in den nächsten Jahren durch V6 abgelöst werden. Die Spezifizierung von V6 ist allerdings noch nicht vollkommen abgeschlossen.[45]

2.6.1.2       Adressierung

Jeder an das Internet angeschlossene Rechner verfügt über eine individuelle, sogenannte IP Adresse der Form X.X.X.X, wobei X für einen Wert zwischen 20-1 (0) und 28-1 (255) steht. Da es für die Anwender reichlich unbequem wäre, sich bis zu zwölfstellige Zahlenkolonnen zu merken, werden diese von sogenannten Domain Name Servern (DNS) den aussagekräftigeren Universal Resource Locators (URL) zugeordnet. Der öffentliche E-Mail Server der Universität Augsburg hat beispielsweise die IP Adresse „137.250.111.23“. Ein Anwender braucht sich jedoch nur die Adresse „popmail.student.uni-augsburg.de“ zu merken. Diese URLs unterliegen einem hierarchischen System. Die Bedeutung der, durch Punkte getrennten, Bestandteile eines Domainnamens wird von rechts nach links immer spezieller. Das „.de“ im Beispiel steht für Deutschland. Anstelle dieses Landeskürzels kann auch eine der sogenannten Top-Level Domains wie zum Beispiel „.com“ für Firmen oder „.gov“ für Regierungsstellen stehen. Diese werden jedoch fast ausschließlich für amerikanische Domains verwendet, während das offizielle Kürzel für die USA (.us) praktisch nie zu sehen ist. Links davon steht die eigentliche Domain, in diesem Falle die der Universität Augsburg. Popmail und Student stehen für hierarchisch untergeordnete Subdomains, die meist zur genaueren Gliederung einer größeren Anzahl von Rechnern dient. Eine vollständige URL beginnt mit einem Dienstkürzel wie etwa http:// oder ftp://, welches bei modernen Webbrowsern jedoch meist automatisch ergänzt wird.

Über die Vergabe von IP Adressen und Domains wachen die NIC (Network Information Center)[46] und ihre nationalen Vertreter wie die deutsche DE-NIC. Durch die zunehmende Kommerzialisierung des WWW hat eine rege Nachfrage nach einprägsamen Domains, wie www.reisebüro.de oder www.sex.com eingesetzt. Die seit jeher geringen Gebühren zur Eintragung einer Domain[47] führten zur Geschäftsidee mit begehrten Internetadressen zu handeln. Die darauf spezialisierten Firmen registrieren für sich alle denkbaren Domains in der Hoffnung diese zu weitaus höheren Preisen an interessierte Unternehmen abzugeben. Rechtsstreitigkeiten, die entstanden, als Domainhändler versuchten, bestehende Firmennamen und Warenzeichen zu registrieren, um diese an die entsprechenden namensgebenden Firmen zu verkaufen, wurden in der Regel zu Gunsten letzterer entschieden. Den Handel mit Schlagwörtern versucht die DE‑NIC­ inzwischen durch die Praxis zu unterbinden, Domains nur noch zu vergeben, wenn der Interessent ein berechtigtes Interesse glaubhaft machen kann.

Durch die entstandene Knappheit an attraktiven Adressen wurde der Ruf nach neuen Top-Level-Domains wie “.firm” oder “.GmbH” laut. Die Neuregelung der Zuständigkeit ist derzeit Inhalt politischer Auseinandersetzungen innerhalb der US Regierung, da der Plan, die Oberaufsicht an die ITU (International Telecommunications Union), eine Unterorganisation der UNO, abzugeben, laut rechter Kreise amerikanische Interessen gefährdet.[48]

2.6.1.3       Datentransport

Einzelne Computer von Privatpersonen werden üblicherweise bei Bedarf über das Telephonnetz mittels eines Modems an das Internet angebunden und haben dann über das TCP/IP Protokoll Zugriff auf alle anderen öffentlichen Rechner im Internet.

Mittels des TCP/IP Protokoll werden Transportprotokolle übertragen, die jeweils verschiedene Anwendungen, allgemein als Internet Dienste bezeichnet, ermöglichen.

Die wichtigsten Dienste sind:

·         FTP

·         E-Mail

·         WWW

 

Vor der Einführung des File Transfer Protokolls (FTP) konnte man im Internet nur Zeichen übertragen. Durch FTP lassen sich nun Binärdateien zwischen verschiedenen Rechnern im Internet austauschen. Dazu wählt man einen FTP Server an, und authentifiziert sich mit persönlichem „Username” und „Password“, Der Nutzer kann sich dann in den Verzeichnissen des Servers analog einer lokalen Festplatte bewegen und Dateien abrufen.

FTP wurde ursprünglich durch reine Textkommandos, vergleichbar mit DOS Befehlen, gesteuert. Inzwischen gibt es zahllose graphische FTP Programme, die in ihrer Bedienung dem Windows Dateimanager oder dem DOS Hilfsprogramm „Norton Commander” nachempfunden sind.

E-Mail bezeichnet den elektronischen Austausch von Textnachrichten. Der wird über das 1982 in RFC 821 und 822 (Request for Comments, siehe Abschnitt 2.7.2.2) definierte Simple Mail Transfer Protocol (SMTP) abgewickelt, das auch das reine Textformat definiert. Der Empfang geschieht über das 1984 in RFC 1725 festgelegte POP3 Verfahren (Post Office Protocol). Die Formatierung sowie die Übertragung von Binärdateien geschieht mit Hilfe des MIME (Multipurpose Internet Mail Extension) Standards, einer Erweiterung von SMTP, die 1993 in RFC 1521 niedergelegt wurde.[49] Die aktuelle Entwicklung geht dahin, für aufwendig formatierte E-Mails das HTML Format des WWW zu benutzen.

Das World Wide Web (WWW oder W3) ist die Gesamtheit aller über HTTP (Hypertext Transfer Protocol) verbundenen Internet Server, die mit Hilfe der HTML Sprache erstellte Seiten anbieten (siehe 2.6.2.1 zu HTML und dem WWW).

2.6.2   Umkämpfte Standards

Für den Anwender sind vor allem die Standards der oberen OSI Schichten relevant, da sie die Art und Weise wie er mit dem Internet interagiert, bestimmen. Bei diesen Standards trifft der Kunde selbst die Entscheidung für oder gegen eine Technologie, indem er entsprechende Software einsetzt oder nicht. Zu den Anwendern werden im Folgenden auch die Autoren von Webseiten gerechnet, obwohl sie noch eine Stufe über den Benutzern der Seitenangebote stehen.

2.6.2.1       Darstellung

Bei der Art und Weise der Darstellung von Daten und Inhalten im Internet gilt es, sowohl nationale Unterschiede, als auch technische Gegebenheiten zu überbrücken. Gleichzeitig steigen die gestellten Ansprüche an die Qualität der Darstellung.

Die einfachen Dienste des Internet wie FTP verwenden nur eine schwarz-weiße Textdarstellung nach dem VT100 (Virtual Terminal) Standard der Firma DEC.

Der bei weitem wichtigste Darstellungsstandard für das Internet ist HTML. Durch diese Seitenbeschreibungssprache ist es möglich, mit relativ geringer Datenmenge ansprechende Bildschirmseiten zu gestalten. HTML ist in der Lage, Text in verschiedenen Schriftgrößen mit, im Textverarbeitungsbereich üblichen, Attributen wie fett, kursiv, unterstrichen sowie Ausrichtungen wie rechtsbündig oder zentriert zu formatieren. Zusätzlich können Grafikdateien in verschiedenen Formaten eingebunden werden. Mit den diesen Gestaltungsmöglichkeiten lassen sich attraktive Publikationen erstellen. Das zweite wichtige Merkmal von HTML ist es bestimmte Textpassagen oder Grafiken als sogenannte „Hyperlinks“ zu definieren. Der Leser eines HTML Dokuments kann einen solchen, meist farblich abgesetzten Link mit der Maus anklicken um auf eine andere Seite zu gelangen. Auf diese Weise sind komfortable Sprünge zu Dokumenten mit weiterführenden Informationen möglich.

Entwickelt wurde HTML am Genfer CERN Institut von Tim Berners-Lee. Er wollte ein System schaffen um komfortabel optisch ansprechende Dokumente unter seinen technisch versierten Kollegen auszutauschen. Die, durch die Verbindung der Dokumente untereinander, entstehende Spinnennetz-Struktur und die Anwendung dieses Systems auf das weltweite Internet führten zum WWW.

Das Konzept wurde begeistert aufgenommen auf helle Begeisterung. Studenten des National Center for Supercomputing Applications der University of Illinois (NCSA) entwickelten daraufhin den ersten Webbrowser[50] von Bedeutung, genannt Mosaic. Neben der Darstellung von HTML Dokumenten (Webseiten) und dem Folgen von Hyperlinks bot dieser die Möglichkeit durch graphische Pfeilsymbole den eingeschlagenen Weg von Link zu Link wieder rückwärts zum Ausgangsdokument zu wandern. Auf diese Weise läßt sich mit der Maus sehr schnell und komfortabel durch umfangreiche Dokumente auf verschiedenen Servern navigieren, wobei es keine Rolle spielt, ob die einzelnen Seiten auf dem gleichen Rechner liegen oder ein Link zu einem Computer führt, der auf einem anderen Kontinent liegt. Das dadurch mögliche Springen von Rechner zu Rechner gab dieser Art der Informationsrecherche den Namen „Surfen“.

Aufgrund der quasi monopolartigen Marktverhältnisse (siehe Abschnitt 2.7.1.3.1) konnte die Firma Netscape mit dem HTML Standard anfangs verfahren wie sie wollte. Mit dem Navigator 2.0 wurden zum Beispiel erstmals Frames[51] eingeführt - eine HTML Erweiterung, die von der W3C, dem zuständigem Gremium in der aktuellen Spezifikation noch gar nicht enthalten war. Trotzdem wurde sie schnell von den Autoren diverser Webseiten übernommen. Gleichzeitig wurde das Netz mit ”best viewed with Netscape Navigator” Buttons überschwemmt, um die verbleibenden Nutzer anderer Browser ganz unmißverständlich darauf hinzuweisen, daß sie eine schlechte Wahl getroffen hatten.

Im Gegenzug unterstützte der etwa zur gleichen Zeit erschienene Microsoft Browser IE 2.0 (Internet Explorer, Version 2,0) eigene, proprietäre HTML Erweiterungen, um beispielsweise Laufschriften oder Videoclips im Windows-spezifischen AVI (Audio-Video-Interleaved) Format darzustellen. Das Web wurde sozusagen in drei Teile gerissen: „Netscape only“, „Microsoft only“ und den Rest der Welt, ohne Frames und ohne eingebundene Multimediafunktionen, dafür aber standardkonform.

Die aktuelle HTML Spezifikation 3.2 enthält alle von Netscape und Microsoft in der zweiten Browsergeneration gemachten Erweiterungen und wird seit der dritten Generation von beiden unterstützt. Die jeweils vierte Generationen IE4 und Navigator 4.0 wurden wiederum um jeweils neue Funktionen ergänzt. Beide Hersteller fügten eine Erweiterung namens Dynamic HTML (DHTML) ein. Diese sind jedoch nicht zueinander kompatibel. DHTML ist ein Vorgriff auf HTML 4.0, welches derzeit bei der W3C spezifiziert wird.

2.6.2.2       Aktive Inhalte

Mit diesem Begriff sollen im Folgenden alle Technologien bezeichnet werden, die es erlauben, auf einer Webseite Bewegung oder Interaktion mit dem Benutzer zu realisieren, die über Hyperlinks.

Eine Möglichkeit stellen sogenannte Scriptsprachen dar, deren wichtigster Vertreter Javascript ist. Sie ist ursprünglich eine Entwicklung der Firma Netscape. Obwohl sie rein gar nichts mit der weiter unten beschriebenen Programmiersprache „Java“ zu tun hat, taufte man schnell das ursprüngliche „Netscape Script“ auf diesen Namen um. Offensichtlich geschah dies in der Hoffnung, den Namen Java zu stärken und zugleich von ihm zu profitieren. Tatsächlich werden aber selbst in Fachkreisen Java und Javascript verwechselt.[52] Ein Script ist eine Liste von Anweisungen, die im Gegensatz zu einem Programm direkt in den HTML Code eingebettet wird und ohne Umsetzung interpretiert werden kann. Scripte sind wesentlich einfacher zu schreiben als echte Programme und werden bei einfachen Aufgaben wesentlich schneller ausgeführt.

Die Implementierung von Javascript im Navigator und im IE unterscheidet sich in Details, so daß manche Funktionen vom Programmierer für den jeweiligen Browser angepaßt werden muß.[53]

Die Sprache VB Script ist eine Untermenge von Microsofts Visual Basic, einer Programmiersprache zum einfachen Erstellen von Windows Anwendungen. VB Script ist Javascript sehr ähnlich, läuft aber im Gegensatz dazu nur in reinen Microsoft Umgebungen. Dafür kann es auch für andere Zwecke als nur für Webseiten mit erweiterter Funktionalität eingesetzt werden.

Komplexere Aufgaben erfordern jedoch echte Programme, bei denen der ursprüngliche Programmcode vor der Ausführung in maschinennahe Sprache umgesetzt (compiliert) wurde. Nur sie ermöglichen den Datenaustausch mit externen Datenquellen, während Scripte nur innerhalb ihrer eigenen Webseite wirken können.

Seit der Einführung von FTP ist es möglich, Programme aus dem Netz zu „downloaden“[54] und diese dann anschließend auf dem eigenem PC auszuführen. Dabei muß es sich jedoch um speziell für den eigenen Computertyp geschriebene Software handeln. Die neueren Entwicklungen erlauben es, spezielle Programme direkt aus der Webseite heraus im Webbrowser auszuführen, und das idealerweise noch plattform-unabhängig. Typische Anwendungen sind animierte Live-Börsen-Kurse, einfache Spiele oder Sicherheitsmechanismen. Darüber hinaus plant man jedoch, sämtliche Standardanwendungen wie Textverarbeitung oder Tabellenkalkulation auf diese Weise direkt aus dem Netz auszuführen.

1995 erkannte Sun, daß sich für diese Anwendungen Java besonders gut eignen würde, eine neue Programmiersprache, die seit 1991 ursprünglich für die plattform-unabhängige Programmierung von Haushaltsgeräten und Unterhaltungselektronik konzipiert wurde. Mit Java lassen sich relativ kleine Programme realisieren. Diese müssen nur einmal geschrieben werden und können dann auf jedem Computersystem ausgeführt werden, für das es einen Java Interpreter, die sogenannte Java Virtual Machine (JVM) gibt.[55] Mit der Version 2.0 des Netscape Navigators wurde es erstmals implementiert.

Eine Allianz um Netscape, Sun, IBM, Apple und Oracle hat es sich zum Ziel gesetzt, die Dominanz von Microsoft bei den PC Betriebssystemen mit Hilfe der Internettechnologie zu überwinden. Dadurch kam die Vision des Net Computers (NC) auf, einem kleinen, vergleichsweise spartanisch ausgestatteten PC mit Internetanschluß und JAVA Betriebssystem, der sich die benötigten Programme direkt aus dem Netz lädt und dabei nur auf Module zugreift, die gerade benötigt werden.

Dieses Szenario wäre für Microsoft wie Intel tatsächlich „lebensbedrohlich“, da der User dann sowohl die Hardware als auch das gewünschte Betriebssystem vollkommen frei wählen könnte - vorausgesetzt es existiert ein entsprechender JAVA Interpreter.

Als Wunderwaffe gegen Java schickte man “ActiveX” ins Feld, eine Technologie, um die Windows typischen OLE (Object Linking and Embedding) Objekte wie etwa Word Dokumente oder Excel Tabellen, aber auch Pulldown Menüs direkt in Webseiten einzubauen. ActiveX Programme haben gegenüber Java den Vorteil, daß sie von Anfang an speziell auf Windows optimiert sind, während Java Applets erst bei der Ausführung von einem Universalcode in die jeweilige Maschinensprache übersetzt werden müssen. Darüber hinaus werden ActiveX Objekte dauerhaft auf der Festplatte installiert und müssen nicht jedesmal neu aus dem Netz übertragen werden. Daraus ergeben sich deutliche Vorteile bei der Geschwindigkeit. Inzwischen ist Microsoft dazu übergegangen alle Windows Anwendung in Form von kleinen, mehrfach verwendbaren ActiveX Modulen (Controls) zu programmieren. Durch diese Technik wird es bei „Office 9“ [56] möglich, nur die wirklich benötigten Komponenten zu installieren, während selten benutzte Funktionen erst bei Bedarf automatisch nachinstalliert werden.

Der schwerwiegendste Nachteil von ActiveX ist die Tatsache, daß es nur in Verbindung mit Microsoft Software funktioniert, sowie das im Vergleich zu Java höhere Sicherheitsrisiko. Java Programme arbeiten nur innerhalb der Virtual Machine, während ActiveX Controls Zugriff auf das gesamte System haben und somit bei mißbräuchlicher Benutzung mehr Schaden anrichten können. Der Hamburger „Chaos Computer Club“ demonstrierte, wie es über ActiveX Controls möglich ist, über eine Webseite die weitverbreitete Windows Finanzsoftware Quicken so fernzusteuern, daß sie unbemerkt Überweisungen auf ein fremdes Konto ausführte.

2.7      Schlüsselfiguren

Im Rahmen dieses Kapitels sollen alle Interessengruppen identifiziert werden, die auf die Entstehung eines Standards indirekt oder direkt Einfluß haben.

2.7.1   Firmen

2.7.1.1       Marktbeherrschende Firmen

Oft werden neue Standards von Firmen entwickelt, die schon bei der Vorgängertechnologie eine marktbeherrschende Stellung innehatten. Es handelt sich dabei um abwärtskompatible Weiterentwicklungen, die den Zweck verfolgen, auf neue Trends und Nachfragerbedürfnisse zu reagieren, und das Aufkommen von Substituten für das eigene Kerngeschäft verhindern sollen. Aber auch vollkommen neue Entwicklungen entstehen aufgrund der enormen Ausgaben für Forschung und Entwicklung (F&E). Im Falle der Firma Microsoft beträgt das F&E Budget allein für das erste Quartal 1998 ca. 600 Mio. $, was über 15 % des gesamten Umsatzes entspricht.[57]

2.7.1.2       Startups

Firmen, die mit einem eigenentwickelten Standard in ein völlig neues Marktsegment vorstoßen, werden im Folgendem als „Startups“ bezeichnet. Sie haben bei der Entwicklung eines neuen Standards frei Hand, denn sie müssen nicht auf sogenannte Altlasten, d.h. technische überholte, aber für Abwärtskompatibilität notwendige Produkteigenschaften Rücksicht nehmen.[58] Im Gegenzug fehlen ihnen jegliche in Kapitel 3.3 genannten Vorteile.

2.7.1.3       Die wichtigsten „Player“

Um die verschiedenen Interessenlagen und Strategien im Hinblick auf die Standardisierung des Internet besser zu verstehen, ist es hilfreich, einen kurzen Blick auf die Geschichte und die Hauptgeschäftsfelder der wichtigsten Firmen zu werfen.

2.7.1.3.1      Netscape

Nachdem sich der Name des ersten Webbrowsers „Mosaic“ am Anfang der 90er Jahre zum Synonym für das World Wide Web entwickelt hatte (siehe Abschnitt 2.6.2.1), gründeten der ursprüngliche Programmierer Marc Andreessen zusammen mit Jim Clark und James Barksdale, beides Veteranen der Computerindustrie, ihre eigene Firma. Ihr erstes Produkt sollte eine besonders leistungsfähige Version von Mosaic sein. Der etwas verspielte Titel Mozilla[59] wurde jedoch zugunsten von Netscape Navigator fallengelassen.[60] Mosaic selbst wurde am NCSA weiterentwickelt und von der Firma Spyglass professionell vermarktet. Viele Webbrowser sind leicht modifizierte Lizenzversionen von Mosaic, so etwa der ursprüngliche Browser des Online Dienstes CompuServe, der Browser des IBM Betriebsystems „OS/2 Warp“ (Operating System 2) oder der Microsoft Internet Explorer 1.0.

Der Navigator war genau das, was das Internet zum Durchbruch brauchte: einfach zu bedienen, leistungsfähig, für alle wichtigen Betriebssysteme verfügbar und kostenlos.[61] Netscape erreichte dadurch in kurzer zeit einen Anteil von über 80% am rasant wachsenden Markt für Webbrowser. Die verbleibenden 20% dürften sich im wesentlichen auf User aufgeteilt haben, die entweder das Pech hatten, ein nicht unterstütztes Betriebssystem zu verwenden oder Mitglied eines Online Dienstes wie AOL (America Online) zu sein, der einen anderen Browser verwendete.

Der Erfolg von Netscape bei den Usern machte sich bald bezahlt. Als sie am 8. August 1995 erstmals an die Börse ging, stieg der Kurs am ersten Börsentag von US$ 28 auf US$ 58 an. Die Firmengründer wurden über Nacht zu Milliardären - ein Erfolg, für den Bill Gates mit Microsoft immerhin zwölf Jahre brauchte.[62]

2.7.1.3.2      Microsoft

1975 gründeten Paul Allen und der Harvard Studienabbrecher William H. Gates III. ihre gemeinsame Firma, Microsoft (MS). Anfangs spezialisierte man sich auf die Erweiterung und den Verrieb verschiedener Dialekte der Programmiersprache BASIC.[63]

Der große Durchbruch gelang 1981. Eine kleine, durch Venture Capital finanzierte Entwicklergruppe von IBM hatte den Auftrag innerhalb von 12 Monaten ein Konkurrenzprodukt zum damals dominierenden Heimcomputer Apple II zur Marktreife zu bringen. Aus Zeitgründen entschloß man sich, hauptsächlich zugekaufte Standardkomponenten wie zum Beispiel den Intel 8088 Mikroprozessor[64] anstatt Eigenentwicklungen zu verwenden. Als Betriebssystem für den IBM PC[65] wählte man PC-DOS[66], eine Weiterentwicklung von QDOS, das Microsoft zuvor für US $50000 von dessen Entwickler Tim Patterson erstanden hatte[67]. Dem PC gelang es innerhalb kürzester zeit den Apple II von seiner Spitzenposition zu verdrängen

Die Etablierung des PC Standards und die damit einhergehende Tatsache, das auf so gut wie jedem Mikrocomputer weltweit Software von Microsoft lief, verschaffte der Firma jährlich zweistellige Wachstumsraten und machte Bill Gates zum reichsten Unternehmer der Welt.

Neben Betriebsystemen stellt Microsoft auch Anwendungssoftware her. Das Büropaket MS Office hält inzwischen einen Marktanteil von über 80% bei den Windows Anwendungen. Seit Ende 1995 bietet Microsoft auch eine ganze Palette an Internet­software an, allen voran ihr Browser MS Internet Explorer (IE). Das Quasi-Monopol, das sich nun auch auf Internet Software auszudehnen droht, sowie die mitunter rücksichtslosen Marketingmethoden brachten Microsoft zuletzt bei Presse, Anwendern und der US Justiz, Widerstand ein.

2.7.1.3.3      Sun Microsystems

Sun Microsystems wurde 1982 von Andreas Bechtolsheim, Bill Joy, Vinod Khosla und Scott McNealy, dem späteren Präsidenten, gegründet. Das Haupt­beschäftigungsfeld liegt in der Entwicklung von teuren Netzwerkservern auf UNIX Basis. Das Sun Paradigma lautet schon seit 1987 „The Network is the Computer“ – alle Systeme arbeiten wie eine große Ressource zusammen.[68]

Suns Marktsegment wird in letzter Zeit durch das Aufkommen der sogenannten „Wintel-Workstations“ bedroht, da die aktuellen Intel Prozessoren und Microsoft Betriebssysteme in Leistungsdimensionen vordringen die bisher Unix vorbe­halten waren. Dieser Bedrohung konterte man 1995 durch die plattform-unabhängige Computersprache Java (siehe Abschnitt 2.6.2.2) und das darauf basierende Konzept des NC (Network Computer). Die erfolgreiche Umsetzung dieser Idee würde wiederum Windows überflüssig machen.

2.7.2   Standardisierungsgremien

Im Sprachgebrauch der ISO ist ein Standard explizit eine “schriftlich festgehaltene Übereinkunft“.[69] Die schriftliche Festlegung eines Standards kann durch drei verschiedene Instanzen erfolgen: durch den Staat, was einer hierarchischen Standardisierung entspricht, durch ein Komitee, was einer koordinierten Standardisierung gleichkommt, und durch die freien Kräfte des Wettbewerbs.[70]

In einer Welt, die sich durch fallende Handelsschranken weltweit auszeichnet und in der staatlich geschützte Monopole sukzessive abgebaut werden, verliert die Standardisierung aufgrund regulativer Eingriffe des Staates an Bedeutung und soll hier nicht näher betrachtet werden. Die letzten beiden Varianten, Standardisierung durch Gremien bzw. durch den Wettbewerb, stehen zueinander in einer Konkurrenzbeziehung (siehe Abschnitt 2.5).

Gerade im Bereich der verteilten Datenverarbeitung, d.h. in Rechnernetzwerken, ermöglichen letztlich Standards erst die erfolgreiche Zusammenarbeit von Computern verschiedener Hersteller, um dem Nutzer alle geforderten Funktionen bieten zu können. Dazu muß zum einen der Anwendungsbereich des Standards klar umrissen sein und zum anderen muß genau festgelegt werden, was im Detail ein Produkt beherrschen muß, um der Norm zu entsprechen.[71] Im Folgenden soll erläutert werden, wie diese Arbeit in den Standardisierungsgremien geleistet wird und welche Gremien im Bereich der Internetstandards von Relevanz sind.

2.7.2.1       ISO

Die ISO (International Institute for Standardization) ist eine im Jahre 1947 von 25 Gründernationen ins Leben gerufene Organisation, die sich der internationalen Koordinierung und Harmonisierung von Industriestandards widmet. Vorläufer dieser Institution war die 1926 gegründete ISA (International Federation of the National Standardization Associations), die zusammen mit der IEC (International Electro-Technical Committee) internationale Standardisierung in allen industriellen Bereichen vorantrieb. Beide Organisationen stellten im Laufe des zweiten Weltkrieges ihre Arbeit ein.

Vor allem exportorientierte Nationen erkannten bereits früh die Notwendigkeit von weltweit gültigen, einheitlichen Standards, die den Austausch von Gütern und Dienstleistungen ungeachtet der nationalen Grenzen fördern. So sorgt Standardisierung auf internationaler Ebene dafür, daß Leistungen weltweit uneingeschränkt genutzt werden können (Bsp.: smart cards, phone cards, credit cards).

Als Nebeneffekt der Diskussion in den internationalen Standardisierungsgremien wird am Ende des Prozesses zusätzlich zu Einigung auf eine Spezifikation

·         die Verbesserung der Produktqualität und die Verlängerung der Lebensdauer zu einem vernünftigen Preis,

·         verbesserter Schutz von Gesundheit und Umwelt sowie eine Anhebung der Sicherheitsanforderungen,

·         verstärkte Interoperabilität und Kompatibilität von Produkten und Dienstleistungen,

·         eine Vereinfachung und eine verbesserte Bedienungsfreundlichkeit,

·         eine Reduktion der Modelltiefe mit einhergehender Kostenreduktion,

·         sowie eine höhere Wirtschaftlichkeit der Distribution und eine Reduktion der Instandhaltungskosten erreicht.

Heute ist internationale Standardisierung in vielen Technologien integraler Bestandteil des Produktentwicklungsprozesses wie beispielsweise in der Informationsverarbeitung, der Kommunikations-, Textil- und Verpackungsindustrie und hat in diesen Bereichen zu einem Abbau der technischen Handelsbarrieren geführt.[72]

Die ISO ist eine Dachorganisation, in der sich die führenden nationalen Standardisierungsgremien von inzwischen über 100 Ländern zusammengeschlossen haben. Sie ist als regierungsunabhängiger Verband mit Sitz in Genf konzipiert. Auf der obersten Ebene sind die „technical committees“ (TC) angesiedelt, wie z.B. das TC97, das für alle Aspekte der Datenverarbeitung zuständig ist. Auf der Zwischenebene befinden sich die „subcommittees“, die sich in einzelnen „working groups“ mit der Erarbeitung und Festlegung einer Spezifikation beschäftigen.

Aus historischen Gründen – aufgrund seiner Entwicklungsgeschichte wird der Computer als eine Weiterentwicklung von Schreibmaschine und mechanischer Rechenmaschine eingestuft – beschäftigt sich die ISO auch mit sämtlichen Normen, die sich auf Datenverarbeitung beziehen[73]. Im Bereich der Informations­technologien allerdings erfolgt die Festlegung von Standards durch Zusammenarbeit mit dem internationalen elektrotechnischen Standardisierungsgremium IEC (International Electotechnical Committee) in dem Gremium ITC1.

Angeregt wird der Standardisierungsprozeß in den meisten Fällen von einem Industriesektor, der einen Bedarf an Standardisierung feststellt und diesen dem nationalen Standardisierungsgremium, das ein Mitglied der ISO ist, mitteilt. Von dort aus wird die Mitteilung an die ISO weitergeleitet, wo in dem betroffenen TC eine erste Entscheidung darüber gefällt wird, ob tatsächlich ein internationaler Bedarf an Abstimmung vorhanden ist. Wird hierüber positiv entschieden, so erhalten alle Mitgliedsorganisationen darüber Nachricht, daß eine neue Spezifikation erarbeitet werden soll, und sie werden gebeten, falls für die nationale Industrie von Bedeutung, Interessenvertreter zu entsenden. In Arbeitsgruppen, die sich aus Technikern und interessierten Laien zusammensetzen, wird eine erste Definition erarbeitet und die Reichweite des zukünftigen Standards ermessen (Phase I). In der sich anschließenden zweiten Phase bzw. der konsensbildenden Phase setzen internationale Verhandlungen ein, in denen die technische Spezifikation ausgehandelt und festgelegt wird. In Phase III erfolgt die Abstimmung, wobei ein Standard nur dann uneingeschränkt angenommen wird, wenn (1) 2/3 derjenigen Mitglieder, die an der Entwicklung beteiligt waren, und (2) ¾ aller ISO-Mitglieder zustimmen.

In der Regel werden alle verabschiedeten Normen in regelmäßigen Abständen erneut überprüft und gegebenenfalls modifiziert.

Die deutschen Interessen werden in der ISO durch das Deutsche Institut für Normung (DN) vertreten, das ebenso wie die ISO keine staatliche Instanz, sondern ein eingetragener Verein mit Sitz in Berlin ist. Das DIN widmet sich der Ermittlung des aktuellen Stands der Technik sowie der Entwicklung deutscher Normen als „technisch-wissenschaftliche Dienstleistung für alle Bürger“[74].

Für die Standardisierung des Internets bzw. seiner Anwendungen ist die ISO von eher untergeordneter Bedeutung, da sich Standards dort bisher ex post durch die Praxis im Sinne eines lex usus und nicht wie bei der ISO ex ante durch Vorab-Festlegung in Gremien etabliert haben[75]. Zudem ist für die Entwicklung eines Internet-Standards die aktive Partizipation der Nutzer aufgrund der in Abschnitt 3.3 erläuterten Netzwerkeffekte wesentlich und wird von der ISO in diesem Bereich bisher nicht so effizient genutzt wird wie von den im Folgenden vorgestellten Gremien. Ein weiterer Grund mögen auch die langen Zeiträume sein, die eine komplexe Organisation wie die ISO zur Entscheidungsfindung benötigt. Insgesamt ist die Struktur der Normierung im Internet im Vergleich zu anderen Bereichen bislang wesentlich informeller und offener.

Gleichwohl führt der einzige Weg zu einem international verbindlichen Standard über die ISO. Standards, die von anderen Gremien verabschiedet wurden, verfügen nicht über eine vergleichbare Bindung, da ihre Einhaltung nicht durch die nationalen Standardisierungsgremien überwacht wird.

2.7.2.2       Internet Engineering Task Force (IETF)

Ursprünglich wurde ein Standardisierungsprozeß im Internet durch eine akademische Diskussion ausgelöst, was zur Veröffentlichung eines sog. „request for comments“ (RFC) führte. Diese beschreiben i. d. R. eine seit Jahren gängige Verfahrensweise im Internet oder auch technische Details. Im Verlauf des Diskussionsprozesses wurden sie laufend überarbeitet und konkretisiert bis sie nach Abschluß der Diskussion zu einem offiziellen Standard erklärt wurden.

Heute läuft das Verfahren immer noch informell, jedoch unter Leitung der Internet Engineering Task Force (IETF) ab.[76] Sie ist eine internationale, offene Gemeinschaft, die sich aus Netzwerkdesignern, Wissenschaftlern und Unternehmen zusammensetzt, die sich der Weiterentwicklung der Internet-Architektur und ihrer reibungslosen Funktionsfähigkeit widmen.[77] Im Unterschied zu anderen Standardisierungsgremien ist die IETF keine formalisierte Organisation, sondern ein Verband von Arbeitsgruppen, die im wesentlichen über Mailinglisten miteinander kommunizieren. Wesentliche Arbeitsfelder sind beispielsweise Routing, Transport, Security etc.

Noch heute initiieren RFCs, die von jedermann, in den meisten Fällen jedoch von einer Arbeitsgruppe des IETF verfaßt werden, einen Standardisierungsprozeß. Eine übergeordnete Gruppe innerhalb der IETF, das Internet Engineering Steering Committee, entscheidet über die Relevanz des RFCs und darüber, ob ein Diskussionsprozeß eingeleitet werden soll. Fällt die Entscheidung positiv aus, wird der „proposed standard“ formuliert und öffentlich zugänglich gemacht. Durch die Veröffentlichung wird eine internationale Diskussion interessierter Parteien ausgelöst, die zugleich durch Implementierung erste Erfahrungen sammeln und an die IETF weiterleiten können. Dort wird der “proposed standard“ kontinuierlich modifiziert. Wird erstmals dokumentiert, daß zwei unabhängige Implementierungen zusammenarbeiten, bestätigt dies zum einen, daß (1) in der Gemeinschaft der Entwickler ausreichend Interesse vorhanden ist und zum anderen, daß (2) der Standard ausreichend detailliert ist, um als Basis zu dienen. Folglich wird der „draft standard“ erarbeitet, der nach weiterer Wartezeit und Erfahrungssammlung zum vollwertigen Internet-Standard verabschiedet wird.[78]

Im Gegensatz zu dem im nächsten Abschnitt vorgestellten Standardisierungsgremium W3C ist die IETF eine für jedermann zugängliche, öffentliche Organisation, die keine formale Mitgliedschaft kennt.

2.7.2.3       W3C

Das World Wide Web Consortium wurde Anfang 1994 von Tim Berners-Lee, der vielfach auch als der Urvater des Web bezeichnet wird, unter der Schirmherrschaft des schweizerischen CERN (Conseil Européenne pour la Recherche Nucléaire) und des amerikanischen MIT (Massachusetts Institute of Technology) ins Leben gerufen. Hintergrund war die zunehmende Forderung von IT-Firmen, eine neutrale Organisation zu schaffen, innerhalb der sich die Betroffenen schnell auf eine technische Spezifikation einigen können. Ende 1994 schloß sich das französische INRIA (Institut National de Recherche en Informatique et en Automatisation) und später die Keio Universität, Japan, der Schirmherrschaft an.[79]

Der Aufgabenschwerpunkt der W3C liegt in der Entwicklung von Spezifikationen, die von jedem angewandt werden können; d.h. in erster Linie betreffen Standardisierungsentscheidungen Spezifikationen, die von den Nutzern aktiv wahrgenommen werden, wie z.B. Schriften, Grafiken, 3-D-Animationen etc. Zusätzlich erteilt das W3C Empfehlungen zu Entwicklungen im Internet mit gesellschaftlicher Relevanz wie Sicherheit, geistige Eigentumsrechte, universeller Zugang und Datenschutz.[80]

Die Mitglieder des W3C stammen aus dem wissenschaftlichen sowie dem wirtschaftlichen Bereich. Sie setzen sich hauptsächlich aus Vertretern der Hard- und Software-Industrie wie z.B. Microsoft, Hewlett Packard, Netscape etc., der TK-Unternehmen, Content Provider, aus kommerziellen Anwendern wie z.B. Michelin und Angehörigen von staatlichen und wissenschaftlichen Einrichtungen zusammen.

Der Ablauf des Standardisierungsprozesses verläuft ähnlich wie bei der ISO: Zunächst wird eine Eingabe eingereicht, dann werden von den betroffenen Mitgliedern in Arbeitsgruppen Kommentare bzw. Vorschläge erarbeitet, die zu einem „working draft“ ausgearbeitet werden. Dieser „working draft“ wird ausschließlich Mitgliedern des W3C zugänglich gemacht. Wird innerhalb der Gruppe der Mitglieder eine Einigung erreicht, wird der aktuelle „working draft“ schließlich an die Öffentlichkeit weitergegeben. Nach der folgenden Phase der „proposal recommendation“ muß das W3C innerhalb eines Monats darüber entscheiden, ob eine endgültige „recommendation“ verabschiedet werden soll[81].

Kritiker von W3C meinen, die Organisation nehme nur eine Alibifunktion für die „big player“ ein, die durch ihre Mitgliedschaft vermeintliches Interesse an einem einheitlichen Standard zu signalisieren versuchen. Andererseits übernimmt die W3C durchaus für die Weiterentwicklung des Internets wesentliche Standardisierungsprozesse: So kam es nach Gründung der W3C zu einem Aufgabentransfer zwischen IETF und W3c. Dadurch obliegt der W3C inzwischen, die gesamte HTML-Standardisierung. Tatsache ist jedoch, daß wesentliche Standardisierungsfragen unter Ausschluß der Öffentlichkeit während der ersten Phase geklärt werden – meistens tatsächlich innerhalb der „big player“; daß diese in der Tat einen wesentlichen Einfluß ausüben, läßt sich anhand des Faktums beweisen, daß die von der W3C verabschiedeten Empfehlungen keinerlei rechtliche Bindungswirkung haben, jedoch i. d. R. befolgt werden. Den Grund dafür formuliert Tim Berners-Lee folgendermaßen: „There’s nothing like authorship to make you read a book“. [82]

2.7.3   Kunden

2.7.3.1       Großkunden

Einige regionale und globale Märkte zeichnen sich dadurch aus, daß die Anbieterseite wesentlich von dem Auftragsvolumen eines bzw. weniger Großkunden abhängt. Diese Situation ergibt sich beispielsweise für den globalen Markt für kommerzielle Flugzeuge, in dem Boeing über einen Marktanteil von mindestens 50% verfügt. In den achtziger Jahren besaß General Motors auf dem amerikanischen Automobilmarkt eine dominante Stellung. In diesen Fällen ist zu beobachten, daß die Initiative zur Entwicklung eines Standards von den Großkunden initiiert wird. Zum einen können bereits von der Anwenderseite entwickelte Spezifikationen den Geschäftspartnern zur Verfügung gestellt werden unter der Bedingung, daß die zukünftig gelieferten Produkte dieser Spezifikation entsprechen bzw. hierzu kompatibel sind. Zum anderen kann eine neue technische Spezifikation, die sich dann wesentlich an den Anforderungen des Großkunden orientiert, in Zusammenarbeit mit den Lieferanten entwickelt werden.

In der Praxis war diese Form der sog. „user driven standardization“ im Falle des Datenprotokollstandards MAP zu beobachten, dessen Entwicklung durch Boeing initiiert und maßgeblich beeinflußt wurde. Andere Flugzeughersteller wie McDonnell-Douglas schlossen sich diesem Standard kurz darauf an. Ein anderes Beispiel ist die Bestellung von einer Million Pay TV Decoder des Typs „d-box“ durch welche, die Kirch-Gruppe der Firma Nokia zum De-facto Standard für deutsches Digitalfernsehen verhalf.

Zu den meisten Fällen von „user driven standardization“ ist es charakteristisch, daß der Anwender über eine starke Marktposition verfügt, seine Industriebranche sich entweder in einem späten Entwicklungsstadium bzw. in starkem Wettbewerb befindet, und, daß der zu standardisierenden Spezifikation eine Schlüsselposition im Unternehmen zukommt.[83]

2.7.3.2       Lead User

Eric von Hippel definierte 1996:

„Lead users are users whose present strong needs will become general in a marketplace months or years in the future. Since lead users are familiar with conditions which lie in the future for most others, they can serve as a need-forecasting laboratory for marketing research.”[84]

“Lead Users are positioned to benefit significantly by obtaining a solution to those needs”[85]

 

Das Konzept der Lead User läßt sich hervorragend auf die EDV Branche anwenden, da dort die Bandbreite, in der sich das Know-how der Nutzer bewegt noch unverhältnismäßig hoch ist. Ein vollkommen unbedarfter PC Kunde benötigt meist schon bei der Auswahl des Gerätes sachverständigen Rat.

Die Betrachtung der Lead User ist nicht nur eine gute Möglichkeit zukünftige Bedürfnisse vorherzusagen, sondern sie üben einen starken Einfluß auf andere aus, z. B. durch ihre Funktion als Betreiber einer populären Webseite oder als Tutor im Rechenzentrum einer Universität.

Lead User sind die ersten die eine neue Browser Generation benutzen. Bis eine neue Softwaregeneration das Beta-Stadium[86] verlassen hat und langsam von Normalusern übernommen wird, beginnen die Lead User oft schon mit den Betaversionen der nächsten Generation zu spielen. Die dabei gewonnenen Erkenntnisse und eventuell herausgebildeten Vorlieben geben sie später an die von ihnen geführten Nutzer weitergegeben.

Für die Lead User des Internet gelten auch weiterhin die soziodemographischen Daten der frühen Internet Studien, wonach sie zu über 90% männlich, Mitte 20 und mit überdurchschnittlicher Bildung ausgestattet sind.[87]

2.7.3.3       Normaluser

Erst seit ein bis zwei Jahren wagen sich auch Nichtexperten an das Internet heran. Die von den Veteranen spöttisch als „Newbies” bezeichneten Internet Anfänger interessieren sich mehr für die in der Presse viel gepriesenen unbegrenzten Möglichkeiten des Cyberspace als für die dahinterstehende Technik oder gar die Visionen der Netz-Pioniere. Entsprechend hart sind dann auch die Zusammenstöße, zu denen es kommt, wenn Anfänger in Usenet Diskussionsforen oder in Chats gegen die Netiquette verstoßen.[88]

Aktuelle Studien bestätigen die Vermutung, daß sich die Zusammensetzung der typischen Internetbenutzer gegenüber früheren Untersuchungen (siehe Abschnitt 2.7.3.2) allmählich „normalisiert“. Der Burda Verlag mißt in der „Typologie der Wünsche - Intermedia“ vom November 1997 schon einen Frauenanteil von 31,7%. Der Anteil der über Dreißigjährigen beträgt inzwischen 61,9%.[89] Somit macht es kaum mehr Sinn, Internetbenutzer differenziert von anderen Konsumenten zu betrachten.

2.7.4   Staat

Der Staat wirkt in zweifacher Hinsicht auf die Entwicklung von neuen Standards ein: Zum einen als Großkunde wie in Abschnitt 2.7.3.1 beschrieben, zum andern in seiner Rolle als Schützer der Verbraucher und der vom Wettbewerb unfair behandelten Firmen.

Die Aufgabe der Kartellbehörden ist es, Firmen daran zu hindern, durch Absprachen und Zusammenschlüsse Monopole zu errichten, da diese sich aus Kundensicht negativ auf die Preise auswirken.[90] Die Begründer der Wettbewerbspolitik in der sozialen Marktwirtschaft „den Wettbewerb energisch vor seinen Teilnehmern schützen“.[91] Im Falle von technischen Standards stehen sie allerdings vor dem Konflikt zwischen den Nachteilen von Monopolen und jenen, die sich durch paralleles Bestehen mehrerer inkompatibler Standards für den Kunden ergeben entscheiden zu müssen.

Für großes Aufsehen sorgt die Auseinandersetzung des Amerikanischen Justizministeriums (DOJ: Department of Justice) mit der Firma Microsoft. Auslöser waren die Beschwerden mehrerer OEMs (Original Equipment Manufacturer) über Microsoft, da ihnen durch ihre Lizenzverträge untersagt wurde, Rechner mit vorkonfiguriertem Windows 95, aber ohne den Internet Explorer auszuliefern (siehe Abschnitt 4.3.5).

3         Standardisierung als strategischer Erfolgsfaktor

Für ein gewinnmaximierendes Unternehmen stellt sich die Frage, welche Standardisierungsstrategie den maximalen Erfolg gewährleistet.

Eine mögliche Option ist die aktive Beeinflussung des Standardisierungsprozesses am Markt, indem das Unternehmen versucht, der von ihr entwickelten technischen Spezifikation eine dominante Position zu verschaffen. Dabei muß jedoch berücksichtigt werden, daß diese Dominanz sich auch auszahlen sollte, was zu einer schwierigen Gratwanderung führt.

Warum ein Unternehmen welche Strategie wählen sollte, wird anhand der Parameter Offenheit und Verbreitung erklärt werden.

3.1      Standard Portfolio

Zur Bestimmung der situativ besten Standardisierungsstrategie charakterisieren wir im Folgenden die verschiedenen Formen der Kompatibilitätsstandards anhand der zwei Dimensionen Offenheit und Verbreitung. Es entsteht ein Portfolio mit vier Quadranten (siehe Abbildung 2). Der Erste beschreibt einen Standard, der trotz seiner geringen Offenheit sehr verbreitet ist. Für die standardisierende Firma bedeutet dies ein Monopol. Im zweiten Quadranten befinden sich alle offenen, etablierten Standards. Die verschiedenen Zwischenformen aus Abschnitt 2.3 liegen dementsprechend zwischen dem ersten und zweiten Quadranten. Der dritte Quadrant umfaßt sogenannte Insel- oder Nischenlösungen mit geringer Offenheit, die individuell für begrenzte Marktsegmente konzipiert sind oder sich nur auf solchen durchsetzten konnten. Im vierten Quadranten konnte ein offen angelegter Standard nicht etabliert werden, ähnlich der „Weltsprache“ Esperanto, die zwar als Standard vorgesehen war, für die sich aber verschwindend wenige interessieren. Beispiele aus der Elektronik sind der digitale Fernsehstandard D2‑MAC, (duobinäre Codierung - Multiplexed Analogue Components) der von der EG als Nachfolger zum etablierten PAL (Phased Alternation Line) System auserkoren war, allerdings nie akzeptiert und verwendet wurde.[92]

 

Abbildung 2: Standardisierungs-Portfolio: Versuch der Klassifizierung von Standards anhand der Dimensionen Offenheit und Verbreitung

3.2      Die Dimension Offenheit

Inwieweit ein Unternehmen einen Standard offen oder geschlossen auslegt, hat unterschiedliche Konsequenzen, sowohl für die Ertragsaussicht, als auch für die gesamte Marktstruktur. Diese Chancen und Risiken sollen nun erläutert werden.

3.2.1   Adaption

In vergangenen „Standardisierungskämpfen“ hat sich gezeigt, daß Offenheit einer Technologie bei vergleichbarer technischer Leistungsfähigkeit eine wesentlich bessere Chance verschafft, vom Kunden akzeptiert zu werden. Die Dominanz des halboffenen Standars MS-DOS über das seinerzeit weitgehend geschlossene Apple Betriebsystem ist ein eindrucksvolles Beispiel dafür. Apple hatte sich wiederum gegen das vollständig abgeschottete PARC System von Xerox durchgesetzt, obwohl dieses schon lange vor dem ersten Apple Macintosh Innovationen wie Mausbedienung, Vernetzung oder Laserdruck unterstützte.[93] Dies hat insbesondere psychologische Gründe, auf die in Abschnitt 4.1 näher eingegangen wird.

Hungenberg und Meffert wiesen 1995 die Bedeutung offener Systeme empirisch nach. In ihrer Erhebung bei 154 EDV-Verantwortlichen von Unternehmen erwies sich Offenheit neben Benutzerfreundlichkeit und Zuverlässigkeit als wichtigstes Entscheidungskriterium beim Kauf neuer Systeme. Im Rahmen einer Conjoint Analyse erreichte Offenheit ein Gewicht von 54% gegenüber 29% für Leistungsfähigkeit und 18% für Preis.[94]

Isoliert betrachtet ergibt sich für ein Unternehmen, das bemüht ist einen Standard zu setzten, die Empfehlung diesen von Anfang an möglichst offen auszulegen. Erreicht wird dies dadurch, daß Drittanbietern die Möglichkeit gegeben wird, Zusatzprodukte anzubieten, und Schnittstellen zu anderen Systemen einzurichten. Durch ein sofortiges Erlangen einer großen installierten Basis können die Kettenreaktionen aus Abschnitt 3.3 ausgelöst werden. Der nächste Abschnitt wird zeigen, daß diese Strategie mit Vorsicht zu genießen ist.

3.2.2   Eigentumsrechte

Abschnitt 2.3 hat gezeigt, daß die Eigentumsrechte an einem Standard negativ mit der Offenheit zusammenhängen. Ein gänzlich offenes System läßt sich zwar leicht durchsetzen, es besteht aber die Gefahr, daß dem eigentlichen Erfinder nur wenig Erträge aus diesem Erfolg entstehen, da mit der Offenheit auch die Wahrscheinlichkeit für das Kopieren durch Mitbewerber steigt. Der Wettbewerb bei offenen Standards findet auf der Preisebene statt. Bei einem geschlossenen Standard kann der Anbieter dagegen vertikal integrieren, d.h. das volle System inklusive Zusatz-, Hard- und Software zu Monopolpreisen verkaufen. Selbst wenn Drittanbieter nur Zusatzprodukte herstellen, können sie so dem Standardsetzer massiv schaden, da viele Systeme erst durch die Nachfolgeinvestition der Kunden rentabel werden.[95] Dies trifft zum Beispiel für Systemgeschäfte zu, bei denen die Anfangsinvestition bewußt niedrig gehalten wird, um für eine schnelle Marktpenetration zu sorgen. Die Videospiel Konsolen von Nintendo werden beispielsweise bei einem Preis von ca. 300 DM unter den Herstellungskosten verkauft, um den Absatz der über 100 DM teueren Spielkassetten zu fördern. Könnte der Kunde Diese nun günstiger von anderen Herstellern beziehen, wäre dies für Nintendo existenzbedrohend.

Die Offenheit der IBM PC Architektur war ursprünglich in wesentlich geringerem Umfang geplant. Es sollte Drittherstellern zwar erlaubt sein, Software und Zusatzhardware anzubieten, um den PC schnell zu etablieren, komplette Nachbauten, die sogenannten „Klone“, sollten jedoch nicht zulässig sein. Um diese zu verhindern, hatte IBM ein Patent auf das ROM BIOS (Read-Only Memory Basic Input/Output System)[96] angemeldet. Den Firmen Compaq und Phoenix gelang es allerdings, unter notarieller Aufsicht, dieses nach zu programmieren ohne dabei IBM Patente zu verletzen. Sie analysierten dazu die Kommunikation des BIOS mit den gängigsten Anwendungen und Programmierten eine eigene Version die das Original möglichst gut imitieren konnte. Kurz darauf wurde der Markt von IBM kompatiblen PCs überschwemmt, die bei gleicher Qualität zu wesentlich niedrigeren Preisen als das Original angeboten wurden. Schließlich verkaufte IBM 1987 nur 1,6 Millionen PCs gegenüber 4,5 Millionen Nachbauten.[97]

Hätte IBM statt dessen von Anfang an einen wirksameren Schutz gegen Nachbauten angeboten oder selbst Lizenzen für seine PC Architektur verkauft um so wenigstens an den Klones mit zu verdienen, wären ihre Einnahmen aus dem PC Standard um ein vielfaches höher gewesen.

3.2.3   Innovation

Ein weithin akzeptierter öffentlicher Standard kann sich negativ auf den technischen Fortschritt auswirken. Durch die Vorgaben des Standards sind die Hersteller in ihren Differenzierungsmöglichkeiten stark eingeschränkt, da jede Innovation die Gefahr birgt, die Kompatibilität zur Standardlösung einzu­schränken. Dies führt dazu, daß sich die Anbieter auf den Wettbewerb über ex­trinsische Merkmale[98] wie den Preis oder das Produktdesign konzentrieren.

Ein Beispiel ist der Markt für Telefaxgeräte. Aufgrund der sehr hohen Netzwerk-Externalitäten (siehe Abschnitt 3.3) macht es hier wenig Sinn, einseitig Verbesserungen des Standards wie Farbfähigkeit einzuführen, da sich jede Verbindung an die kleinste gemeinsame Leistungsfähigkeit der beiden beteiligten Faxgeräte halten muß. Alle Faxgeräte arbeiten nun weltweit nach der von der ITU festgesetzten Norm, die nach heutigen Maßstäben eine mit 200 mal 100 Punkten pro Zoll sehr bescheidene Bildauflösung bietet.[99] Solche etablierte Standards locken neue Anbieter an, da relativ sichere Informationen über geforderte Mindestanforderungen an ein Produkt vorliegen und sie sich lediglich darauf konzentrieren müssen, diese Anforderungen zu besonders niedrigen Preisen und Kosten zu realisieren.[100] Auf Märkten mit dieser Situation sind heute vor allem asiatische Unternehmen erfolgreich.

3.3      Die Dimension Verbreitung

Wenn sich der Nutzen eines Produktes für alle seine Nutzer mit jedem weiteren Übernehmer erhöht, spricht man von sogenannten Netzwerkprodukten. Ähnlich der Lernkurve oder Erfahrungskurve[101] sind Netzwerk-Externalitäten eine Funktion des kumulativen Ausstoßes. Bei den Netzwerkprodukten sind die Vorteile proportional zur Größe des Installationsbestandes.[102]

Ein klassisches Beispiel ist das Telephon. Für einen einzigen Benutzer ist es vollkommen wertlos, sobald jedoch mehrere Geräte im Einsatz sind, bietet sich jedem Benutzer die Möglichkeit, die anderen zu erreichen. Sieht man den Nutzwert eines Telephonapparates als Funktion der Anzahl der erreichbaren Gegenstellen, so wird sein Erwerb mit steigender Zahl der schon vorhandenen Übernehmer attraktiver. Die idealtypische Diffusionskurve eines Netzwerkgutes entspricht der Gausschen Normalverteilung. Sie bildet die Zahl der Übernehmer zu einem bestimmten Zeitpunkt (y-Achse) auf die Zeit seit Produkteinführung ab (x-Achse). Sie entspricht dabei nicht dem Absatzverlauf, da Ersatzinvestitionen nicht berücksichtigt werden. Die Kurve wird in vier Segmente eingeteilt. Der erste, vergleichsweise flache Abschnitt bezeichnet die „Innovatoren“. Diese Kunden erkennen frühzeitig das Potential einer neuen Technologie und übernehmen sie, trotz geringem Nutzwert aufgrund der noch schlechten Verbreitung. Die „early adopters“ oder „follower” werden sowohl von der Attraktivität des Produktes als auch von der Zahl der bisherigen Übernehmer überzeugt. Bei mehreren konkurrierenden Technologien wird die, mit der höheren Verbreitung gewählt. Farrel und Saloner erklären diesen sogenannten Bandwagon Effect: „If they follow the lead, they will be compatible at least with the first mover and plausibly with the later movers“.[103]

Sobald die Nutzerbasis die sogenannte kritische Masse übersteigt, existieren für jedermann genug Gründe zu übernehmen. Auf der Diffusionskurve äußert sich dies durch einen sehr steilen Anstieg. Der Markt ist gesättigt sobald alle potentiellen Kunden mit echtem Bedarf für ein Produkt dieses bereits übernommen haben. Es folgten eine stetig abnehmende Zahl an Nachzüglern. Als Grund für die späte Übernahme ist zum Beispiel das Vorhandensein einer Vorgängertechnologie, denkbar, welche erst noch „aufgetragen“ werden mußte. Andere späte Übernehmer haben eigentlich gar keinen Bedarf an dem Produkt, lassen sich aber durch seine Verbreitung und den damit einhergehenden Medien „Hype“ täuschen. Zusätzlich werden Produkte in dieser Phase oft sehr preiswert, sei es durch gesunkene Herstellungskosten aufgrund von Lernkurveneffekten, oder aufgrund von hartem Preiswettbewerb.

Empirisch nachgewiesen wurden Netzwerk-Externalitäten zum Beispiel von Saloner und Shepard am Beispiel der Adaption von Bankautomaten.[104]

Der glockenförmige Kurvenverlauf wird im Rahmen der Produktlebenszyklus-Theorie für alle Produkte unterstellt, konnte sich jedoch empirisch nur für Netzwerkprodukte nachweisen lassen.[105]

Am besten läßt sich der Netzwerkeffekt zur Erklärung des Wachstums der Kommunikationsdienste des Internet wie E-Mail, Chatsysteme, Internettelefonie und Videoconferencing anwenden. Aber auch bei den Browsern profitieren alle Nutzer von ihrer steigenden Zahl, da eine hohe Verbreitung die Hersteller von Zusatzanwendungen wie sogenannten Plug-ins oder die Autoren von Webseiten dazu motiviert, ihr Angebot auf diesen Browser auszurichten. Dabei muß differenziert werde zwischen der Browsernutzung an sich und der Verbreitung eventuell inkompatibler Zusatzeigenschaften wie Java, ActiveX oder Dynamic HTML. Einem Netscape Anwender nützt ein neuer Internet Explorer Nutzer, indem er die installierte Basis von Browsern erhöht und es somit für Anbieter attraktiver macht, das WWW zu verwenden. Gleichzeitig schadet er ihm, da er die Entwicklung von Angeboten, welche die speziellen IE Merkmale verwenden, fördert, die ihm nicht zugänglich sind.

Die Ansätze der Diffusionstheorie setzen einen bereits etablierten Standard voraus, beschäftigen sich aber nicht mit den entscheidenden Weichenstellungen die diesen Effekt erst möglich machen.[106] Um den Netzwerkeffekt für sich zu nutzen, ist es nötig, schnellstmöglich die kritische Masse zu erreichen; gleichzeitig muß im Falle von konkurrierenden Produkten eine höhere Verbreitung als die des Konkurrenten angestrebt werden. Dieser „selbstverstärkender Standardisierungsprozeß“[107] begünstigt langfristig die Bildung eines natürlichen Monopols, bei dem die Netzgröße eines Standards die Größe des Gesamtmarktes erreicht.[108]

3.4      Strategische Implikationen

Eine hohe Verbreitung eines Standards ist sowohl für die Nachfrager erstrebenswert, denen der Netzwerkeffekt zu Gute kommt, als auch für die Anbieter, die an jedem weiteren Übernehmer verdient haben. Anders sieht es dagegen bei der Offenheit, aus die zwar von den Nachfragern gewünscht wird, für die Anbieter aber negative Auswirkungen auf die Ertragserwartungen zur Folge hat.

Angewendet auf das Portfolio aus Abschnitt 3.1 ergibt sich für die Nachfrager eine steigende Akzeptanz vom dritten zum zweiten Quadranten.

Abbildung 3: Portfolio für die Nachfrager

Das attraktivste Marktergebnis aus Nachfragersicht, ist der „Offene Standard“, der auf beiden für den Kunden wichtigen Dimensionen gut abschneidet. Die „Insellösung“ wird nur von wenigen Nachfragern akzeptiert. Dies sind entweder jene Kunden, für die eine Lösung maßgeschneidert wurde, oder im Falle einer noch jungen Technologie die „Innovatoren“ und „Early Adapters“. Das volle Systemmonopol beschert den Anwendern zwar die positiven Auswirkungen des Netzwerkeffektes, erfüllt aber nicht den Wunsch nach Offenheit. Die „Esperanto Lösung“ mag zwar für Kunden, die besonders großen Nutzen aus Offenheit ziehen attraktiv sein, bleibt aber für die große Masse aufgrund der fehlenden Verbreitung inakzeptabel.

Ein offensichtlicher Schwachpunkt der Darstellung ist die scheinbare Gleichwertigkeit der Esperanto und der Monopol Lösung. Betrachtet man zu einem gegebenen Zeitpunkt die Anzahl der Neukunden eines Systemmonopols wie Microsoft Windows und eines Esperanto Standards wie D2-MAC muß man einen konkaven Verlauf des Graphen der Kundenakzeptanz vom dritten über den ersten zum zweiten Quadranten annehmen. Ein solcher Verlauf würde jedoch eine stärkere Gewichtung der Dimension Verbreitung gegenüber der Offenheit implizieren, für die es noch keinerlei empirische Befunde gibt.

Eine weiterer Kritikpunkt ist die Statik der Darstellung. Die in Abschnitt 3.2.3 beschriebenen langfristigen Auswirkungen der Standardisierung auf die Innovationshöhe werden nicht berücksichtigt.

Aus Sicht der Anbieter ist Offenheit mit Verringerung der Property Rights gleichzusetzen. Man kann annehmen, daß der Ertrag eines Unternehmens eine multiplikative Funktion der Verbreitung und der Property Rights ist. Bei vollkommener Aufgabe der Property Rights sowie bei einer Verbreitung von Null ist auch der Ertrag gleich null, und zwar jeweils unabhängig vom Niveau der anderen Dimension.

Abbildung 4: Portfolio für die Anbieter

Die höchsten Ertragsaussichten bestehen bei einem Standard, an dem das Unternehmen alle Verfügungsrechte besitzt, und der trotzdem eine sehr hohe Verbreitung erreicht hat. Dies entspricht dem Monopol aus Quadrant eins. Die mittleren Erträge die sich für die Quadranten zwei und drei ergeben, entstammen entweder aus den Monopolerträgen einer geschlossenen Nischenlösung oder aus dem hohen Marktvolumen eines offenen Standards. Der Esperanto Standard führt hingegen zu überhaupt keinen Einnahmen. Denkbar wären bestenfalls staatliche Subventionen bei politisch gewollten Projekten.

3.4.1   Normstrategien

Je nachdem in welchem Quadranten ein Standard sich gerade befindet, ergeben sich für dessen Begründer unter dem Ziel der Gewinnmaximierung unterschiedliche Normstrategien.

Wenn das Monopol aus Quadrant eins bereits erreicht ist, müssen alle Anstrengungen darauf abzielen, dies gegen Wettbewerber zu verteidigen.

Bei einem offenen Standard ist das ökonomische Ziel, diesen durch Reduzierung der Offenheit in ein Monopol umzuwandeln, was sich in der Vergangenheit oft als schwierig herausgestellt hat. IBM versuchte 1987 den aus ihrer Sicht zu offen geratenen PC Standard wieder zu schließen, indem sie dessen Nachfolger, das PS/2 entwickelte. Diese Computer waren mit einem neuen, durch Patente geschützten Erweiterungssteckplatz ausgestattet, wodurch verhindert werden sollte, daß weiterhin IBM Nachbauten den größten Teil des Marktes beherrschen würden. Das Resultat war, daß mit einem Male die IBM Rechner als einzige nicht mehr vollständig „IBM Kompatibel“ waren. Der Marktanteil sank noch weiter.[109] Dieser Fehlschlag beruht allerdings auf Fehlern der IBM nicht auf der Tatsache, daß ein nachträglicher Verschluß einer Technologie nicht möglich sei. Intel war bei einer ähnlichen Strategie wesentliche erfolgreicher. Vom 80286 vergab man noch großzügig Lizenzen an andere Hersteller wie AMD und stellte somit einen breiten Absatzbereich sicher. Nachdem die X86 Familie den Markt dominierte konnte man ihn mit dem 80386 und seinen Nachfolgern alleine abschöpfen, da diese voll abwärtskompatibel aber dennoch viel leistungsfähiger waren, aber ausschließlich von Intel hergestellt werden durften.[110]

Befindet sich der Standard in Quadrant drei, kann dies zweierlei bedeuten. Entweder die Technologie richtet sich nur an einen begrenzten Kundenkreis. In diesem fall lautet die Empfehlung, sich gegen das Eindringen Anderer in dieses Marktsegment zu wehren. Dies ist beispielsweise Apple nicht gelungen, wodurch es seine scheinbar gefestigte Position im Grafik und Multimediamarkt an Windows verlor. Ein Nischenprodukt das nicht zu einem Mehrzweckprodukt ausbaufähig ist, wird schnell zur Sackgasse.[111] Die zweite Möglichkeit ist, daß sich ein neuer Standard noch am Anfang seines Produktlebenszyklus befindet. Die Konsequenz daraus ist, daß sein Begründer schnell für das Erreichen der kritischen Masse sorgen muß. Denkbar ist dabei der Umweg über eine teilweise Öffnung des Standards.

Bei einem Standard der in Quadrant vier einzuordnen ist, sollte der Hersteller versuchen, sich schnellstmöglich aus dem Markt zurückzuziehen.

3.4.2   Risiken

Die Stellung eines Anbieters im Prozeß der Standardisierung richtet sich nach seinen Möglichkeiten, den Standard entweder beeinflussen zu können oder sich ihm anpassen zu müssen.[112]

Über- oder unterschätzt das Unternehmen diese Möglichkeiten mit der Konsequenz, strategische Fehlentscheidungen zu treffen, können die Auswirkungen auf die Marktposition gravierend sein, wie die im folgenden angesprochenen Beispiele aus der Praxis verdeutlichen.

Entscheidet sich das Unternehmen dafür, einen eigenen Standard durchzusetzen, besteht das größte Risiko darin, einem anderen, ebenfalls um die Gunst der Kunden konkurrierenden Standard zu unterliegen. Die getätigten Investitionen in Forschung, Entwicklung und in Marketing erweisen sich dann als „sunk costs”, wenngleich sie womöglich genauso hoch bzw. über den Kosten des erfolgreichen Konkurrenten, liegen mögen. Gemessen an der Marktposition des Konkurrenten, sinkt die eigene Marktposition unter das Niveau eines „Me-too “- Anbieters, denn ein früher „Me-too“ des erfolgreichen Standards verfügt zu diesem Zeitpunkt bereits über Erfahrung und genießt in der Konsequenz eine bessere Kosten- und Imageposition.[113] Nur in Ausnahmefällen können sich zwei oder mehrere Systeme friedlich nebeneinander etablieren. Zu diesen Ausnahmen zählt der Markt für Videospiele, der sich in den letzten 20 Jahren jeweils zwischen einem Nintendo System und einem Konkurrenten im Verhältnis zwei zu eins aufteilte. In den meisten Fällen führt ein verlorener „Standardkrieg“ zum Verschwinden der unterlegenen Firma, wie die Beispiele von Commodore, Atari, Sinclair und in Zukunft vielleicht Apple beweisen.

Unterliegt das Unternehmen in einem „Standardkrieg“, so ist eine strategische Neuausrichtung die schadensbegrenzende Lösung des Dilemmas. Ungeachtet der „sunk costs” muß das unterlegene Unternehmen seine Anstrengungen auf den siegreichen Standard konzentrieren, um Marktanteilsverluste zu minimieren. IBM verfolgte eben diese Strategie, nachdem das eigene System OS/2 im Wettbewerb dem Microsoft Konkurrenzprodukt Windows NT unterlegen war. Auch das Beispiel Sony unterstützt diese Hypothese: nachdem klar wurde, daß das unterstützte Videosystem Beta am Markt keinen Anklang fand, richtete der Hersteller seine gesamte Produktpalette auf das konkurrierenden VHS-System aus. Für die Unternehmen erweist es sich jedoch als schwierig den Zeitpunkt zu erkennen, an dem eine strategische Neuausrichtung angebracht ist, um der „Standardisierungsfalle“ zu entgehen.[114]

Kommt es zu einem „Standardkrieg“, besteht sogar die Möglichkeit, daß sich keiner der Konkurrenten durchsetzt. Die Auseinandersetzung von Sony und Phillips um einen Standard für digitale Musikaufzeichnung zwischen der MD (Minidisc) und der DCC (Digital Compact Cassette) führte zu einem „Doppel Flop“, aufgrund der Unsicherheit der Kunden welches System sich durchsetzen werde, in Verbindung mit dem geringen Mehrnutzen den beide Lösungen gegenüber dem standardisierten Vorgänger boten.[115] Es blieb bei der alten analogen Audiokassette.

Selbst bei friedlicher Einigung zweier Konkurrenten auf einen gemeinsamen Standard kommt es oft beiderseits zu hohen Kosten, da bei inkompatiblen Lösungen die herstellerübergreifende Kompatibilität nur auf Kosten der modellübergreifenden Kompatibilität realisiert werden kann und somit Produkte ausrangiert werden müssen.[116] Im Falle der beiden konkurrierenden Standards für Modems mit einer Geschwindigkeit von 56000 Bit/s einigten sich die Firmen Rockwell und US Robotics auf einen neuen, durch das zuständige Gremium ITU abgesegneten Standard V.90, der zu keiner der beiden firmenspezifischen Lösungen „K56flex“ und „X2“ kompatibel war, auf den aber alle bisher verkauften Geräte umgerüstet werden können. Die Kosten trägt in diesem Fall der Kunde.

Auch das Ignorieren eines aufkommenden Standards kann fatale Folgen haben, falls er das Potential hat eine dominante Technologie zu ersetzen. Gründe für solche Fehleinschätzungen können die anfängliche Überlegenheit der alten Technologie sein, aber auch das zwanghafte Festhalten an einer ertragreichen Position. Ein einmal etablierter Standard ist nicht für alle Zeiten gültig, sondern spiegelt immer nur den Stand der technischen Entwicklung wider. Sobald eine neue Lösung den Markt mehr überzeugt, kann auch ein scheinbar gefestigtes Monopol fallen.[117] IBM weigerte sich in den 80er Jahren, seinen PC mit dem neu vorgestellten 32Bit Prozessor, Intel 80386 auszurüsten, weil man dadurch Einbrüche aufgrund von „Kannibalisierung“ im eigenem lukrativen Geschäft mit Minicomputern befürchtete. Statt dessen brachte Compaq, die bisher nur IBM PC Nachbauten vertrieben, den ersten PC auf 386 Basis heraus und übernahm damit zum einem die Führerschaft auf dem PC Markt zum anderen löste sie die von IBM gefürchtete Verdrängung der Minicomputer durch leistungsstarke PCs aus. Ein ähnliches Schicksal könnte Microsoft und Intel ereilen, sollten sich Java mitsamt seinem Paradigma ''write-once, run-anywhere'', und die damit arbeitenden Net Computer (NC) durchsetzen. Da Java Programme auf jeder Rechnerplattform lauffähig wären, gäbe es keinen Grund mehr, Windows einzusetzen. Mit Windows fiele auch das Hauptargument für Intel Prozessoren weg, da Java NCs auch auf Basis von inkompatiblen aber schnelleren Prozessoren anderer Hersteller gebaut werden könnten. Sollte es Intel in diesem Falle nicht gelingen, sein Know-how in die Entwicklung schneller RISC CPUs zu verlegen, und Microsoft sich nicht zum Hersteller von überlegener Java Anwendungen wandeln, wären zwei der Top10 Firmen durch einen neuen Standard geschlagen worden.

3.4.3   Chancen

Eine große Chance die sich für den Begründer eines neuen Standards bietet, sind Verbundvorteile, die aus der Errichtung einer ganzen Standardarchitektur, also aus mehreren eng miteinander verbundenen Produkten besteht.[118]

Verbundvorteile genießt ein Anbieter, wenn eines seiner Produkte von der Verbreitung eines anderen profitiert, da es mit diesem besser zusammenarbeitet als die Konkurrenzprodukte. Dieser Zusammenhang ist beispielsweise bei Netscapes „Suit Spot“ gegeben, einer Webserver Software, die vom sehr hohen Marktanteil Netscapes bei den Webbrowsern profitiert, oder bei sämtlichen Anwendungen von Microsoft inklusive dem IE, welche nachhaltig durch das Quasi-Monopol bei den Betriebssystemen gefördert werden (siehe Abschnitt 2.7.1.3.2).

Weitere Gründe für Verbundvorteile liegen im internen Wissenstransfer bei verwandten Produkten. Im Falle Windows und MS Office hat dieser Vorteil schon mehrfach zu der Forderung geführt, Microsoft solle in zwei separate Firmen zerschlagen werden, um den unfairen Wettbewerbsvorteil bei Anwendungen für Windows zu verlieren. Man mutmaßt, daß Windows „geheime“ Funktionen enthalte, die nur Microsoft bekannt seien, weshalb sie in der Lage wären leistungsfähigere Software dafür zu schreiben. Ähnliches könnten auch Netscape oder Sun mit ihrer Serversoftware unternehmen.

Bei konsequenter Ausnutzung der Verbundvorteile läßt sich durch die Errichtung eines dominanten geschlossenen Standards nicht nur das Monopol auf eine Technologie, sondern über eine gesamte Branche erreichen. Berücksichtigt man, daß derzeit EDV, Unterhaltungselektronik, Medien- und Telekommunikationsbranchen zusammenwachsen, kann man die Sorgen verstehen, die von Bill Gates‘ Erfolg derzeit ausgelöst werden.

4         Etablierung von Standards

Allen Normstrategien aus 3.4.1 ist das Ziel gemeinsam, den Standard zu etablieren, ohne die Property Rights durch zu große Offenheit zu verwässern. Der Schlüssel zum Erfolg eines Diffusionsprozesses ist die gesellschaftliche Akzeptanz.[119] Die Identifikation der Bedürfnisse der Nachfrager und der zu beachtenden psychologischen Besonderheiten hinsichtlich des Verhaltens in der Zielgruppe geben Aufschluß darüber, welche marketingpolitischen Maßnahmen mit welcher Intensität zu planen sind, um eine breite Akzeptanz sicherzustellen.

Die folgenden Punkte analysieren entsprechend den obigen Ausführungen zunächst die Verhaltensmuster der potentiellen Nachfrager, dann die Kontextfaktoren, d.h. das Umfeld und Gegebenheiten der Unternehmung, um im Anschluß daran Ansätze zur Umsetzung aufzuzeigen.

4.1      Verhalten der Anwender

Letztendlich erfolgreich wird dasjenige Unternehmen sein, das die Gunst des Kunden gewinnt. Insbesondere im Computerbereich werden „Architekturkämpfe“ laut Ferguson und Morris „in den Herzen und den Köpfen der Kunden gewonnen“.[120] Werden die Faktoren, die das Verhalten der Nachfrager bestimmen, ausreichend berücksichtigt, so läßt sich erklären, warum sich in der Vergangenheit mehrmals nicht die objektiv beste Technologie als Standard durchsetzt hat, sondern diejenige, deren Anbieter es gelingt, typische Verhaltensmuster der potentiellen Kunden durch geschicktes Marketing[121] für sich zu nutzen.

Systemgeschäfte stellen einen Sonderfall des Standardisierungsproblems dar. Bei Systemgeschäften muß sich der Kunde für eine komplexe Lösung, bestehend aus mehreren Komponenten, die über Schnittstellen miteinander interagieren, entscheiden. Oftmals sind diese Lösungen auf die spezifischen Probleme des Kunden individuell zugeschnitten, so, daß sich die Kaufentscheidung nicht auf das Produkt beschränkt, sondern aufgrund der folgenden Ausführungen auch direkt auf den Anbieter der Lösung ausweitet.

4.1.1   Nutzenmaximierung

Oberstes Ziel eines Nachfragers stellt die Maximierung des eigenen Nutzens dar. Dieser Nutzen besteht nicht aus einem einzigen verfolgten Ziel, sondern aus einer Vielzahl von Anforderungen, welche die gewünschte Leistung erfüllen soll. Das Optimum-Produkt, das gleichermaßen alle Bedürfnisse hinsichtlich Preis, Leistungsmerkmale, Qualität etc. erfüllt, existiert in den wenigsten Fällen. Aus diesem Grund bildet der Nachfrager eine Hierarchie, welche die Anforderungen an das Produkt ihrer Wichtigkeit nach einstuft, und legt eine minimale, zu erfüllende Güte je Anforderung fest. Erfüllt ein potentielles Produkt eine Minimalanforderung nicht, so kann dies durch einen überdurchschnittlich hohen Erfüllungsgrad einer anderen Anforderung ausgeglichen werden. Hierarchie und Trade-off zwischen den Erfüllungsgraden bilden für jedes einzustufende Produkt ein komplexes Optimierungsproblem, das subjektiv und durch den Anbieter nicht nachvollziehbar in jedem einzelnen Nachfrager abläuft.[122]

„Moores Law“, benannt nach James Earl Moore dem Gründer des führenden Mikroprozessor Herstellers Intel, besagt, daß sich innerhalb von 18 Monaten die Leistungsfähigkeit der handelsüblichen Prozessoren bei gleichem Preis verdoppelt. Diese Gesetzmäßigkeit konnte sowohl für die Entwicklung der PC Prozessoren, wie auch für deren Festplatten, Arbeitsspeicher und Grafikkarten empirisch nachgewiesen werden.[123][124]

Trotzdem wurde die Rechner im gleichen Zeitraum nicht entsprechend schneller, da das Plus an Rechnerkapazität von den neuen Betriebssystemen und Anwendungsprogrammen vollends ausgeschöpft wurde.[125] Die Leistung wird von den vielen neuen Merkmalen in Anspruch genommen, die erst seit kurzem verfügbar sind, die aber inzwischen niemand mehr missen möchte. Als Beispiel seien genannt: Graphische Benutzerführung, WYSIWYG[126] Darstellung, Multitasking[127], Internetzugriff, Rechtschreibkontrolle oder Computerspiele mit hochauflösender 3D Darstellung und Stereoton in CD Qualität.

Dabei sind es gerade die Privatkunden die immer mehr Leistung fordern. Als Intel den Pentium auf den Markt brachte wurden mit Abstand die meisten Geräte vom Discounter Vobis verkauft, währen Geschäftskunden weiterhin die langsamen 486er nachfragten. Man spricht in diesem Zusammenhang vom „Nikon Effekt“, benannt nach dem japanischem Hersteller von Kameras. Hier wurde zum ersten mal die Beobachtung gemacht das die neusten und besten Geräte früher von Hobbyfotographen nachgefragt wurden, als von Profis.

Objektiv nachvollziehbar für einen Anbieter von Netzwerkprodukten ist es, daß der Nutzen eines Produktes bzw. der von ihm genutzten Technologie für den Kunden dann hoch ist, wenn seine Leistung gemessen an existierenden Alternativen hoch ist. Mit anderen Worten: Kundennutzen korreliert positiv mit der Leistungsfähigkeit des Produktes. Gleichzeitig besteht aufgrund des Netzwerkeffektes eine positiver Zusammenhang zwischen Kundennutzen und Verbreitung eines Produktes. Bei isolierter Betrachtung dieser beiden Effekte ergibt sich für den Kundennutzen eine multiplikative Funktion aus Verbreitung und Leistung.

Abbildung 5: Kundennutzen in Abhängigkeit von Verbreitung und Leistung

Die Krümmung der Nutzengerade aufgrund zu- oder abnehmender Grenznutzen, sowie das Verhältnis der beiden Effekte zueinander sind noch nicht erforscht.

4.1.2   Unsicherheit

Der Anwender steht vor der Entscheidung, ein Produkt aus mehreren Alternativen zu wählen. Ex ante, also vor Gebrauch, fehlen ihm „wesentliche, für die Beurteilung der Alternativen wünschenswerte Informationen“ bezüglich der tatsächlichen Leistungsfähigkeit, Kompatibilität und anderer relevanter Merkmale, über die nur der Anbieter verfügt[128]. Diese Ungleichverteilung von Informationen wird in der wissenschaftlichen Theorie als Informationsasymmetrie bezeichnet.[129]

Desweiteren trifft der Nachfrager im Bereich Informationssysteme und Netzwerkprodukte mit der Wahl einer bestimmten Systemarchitektur beim Initialkauf eine Entscheidung von langfristiger Tragweite, denn er legt sich dadurch fest, welche (kompatiblen) Zusatzsysteme bzw. -Produkte welcher Hersteller er in Zukunft erwerben kann. Wird der Nachfrager durch den Initialkauf in seinen Wahlmöglichkeiten bei Folgekäufen eingeschränkt, entsteht mit der Kaufentscheidung ein Systembindungseffekt.[130] Ihm fehlen aber im Vorfeld der Kaufentscheidung wichtige, zukunftsbezogene Informationen z.B. darüber, ob die Architektur zukunftssicher ist bzw. weiterentwickelt werden wird, ob die Weiterentwicklungen auch in Zukunft den jeweils aktuellen Stand der Technik repräsentieren werden, ob die Weiterexistenz des Anbieters bzw. der Anbieter von Komplementärprodukten gesichert ist etc. [131].

Das Bewußtsein eines Mangels an Informationen über die Leistungsfähigkeit des Produktes, seine technische Spezifikation und über die zukünftigen Entwicklungen führt zu endogener Unsicherheit. Die Kaufentscheidung ist risikobehaftet, da sich nach dem Kauf herausstellen kann, daß eine falsche Wahl getroffen wurde. Backhaus vermerkt zu dieser Problematik, daß der „Systembindungseffekt ... zu einer Verunsicherung potentieller Nachfrager von Systemen“ führt „...sowie zur Bereitschaft, die Einschätzung des mit der Beschaffung verbundenen Risikos nicht ausschließlich an der Systemleistung zu messen“.[132] Systembindungseffekt und asymmetrische Informationsverteilung verstärken demzufolge katalytisch das wahrgenommene Risiko des Nachfragers bei Initialkäufen.[133]

Im Vorfeld werden deshalb so lange Informationen aufgenommen werden, bis die Unsicherheit auf ein individuell erträgliches Maß reduziert ist. Information kann aktiv, durch den Nachfrager selbst beschafft werden (Screening). Er wird z.B. verstärkt Vergleichstests in Fachzeitschriften lesen und Erfahrungen von Anwendern vergleichbarer Systeme einholen.

Da sich aber die tatsächliche Qualität bzw. Leistungsfähigkeit und Zukunftssicherheit des Produktes vor dem Kauf nur bedingt feststellen läßt – Test- und Erfahrungsberichte sagen beispielsweise wenig über die zukünftige Entwicklungspolitik des Anbieters aus – werden auch extrinsische Produktmerkmale zur Beurteilung herangezogen, d.h. Informationen, die nicht mit der existierenden, physischen Qualität zusammenhängen.[134] [135] Hier bietet sich für den Anbieter eine Chance mittels Indizes und Signalen dem Nachfrager sog. Surrogatinformationen zu vermitteln, um so das wahrgenommene Risiko, insbesondere im Hinblick auf den Systembindungseffekt zu verringern.[136] [137]

Indizes beziehen sich auf Eigenschaften von Produkten bzw. des Herstellers, die langfristig nicht durch den Hersteller beeinflußt werden können. Typische Indizes sind Unternehmensgröße, Herkunftsland und Marktstellung. Hieraus kann der Nachfrager beispielsweise Informationen über die Zukunftssicherheit seiner Investition ableiten.

Signale stellen Informationen dar, die durch den Anbieter beeinflußt werden können. Beispielsweise kann „als Signal ... das Eingehen auf einen Marktstandard gewertet werden“.[138] Nur ein leistungsfähiger Anbieter wird vollständige Kompatibilität anstreben, denn er muß nicht befürchten, daß Nachfrager in Zukunft bei Folgeinvestitionen aufgrund gesunkener Systemwechselkosten sich für Konkurrenzlösungen entscheiden.[139]

Auch die aktive Beeinflussung des Standardisierungsprozesses kann als Signal dienen, indem der Nachfrager diese Information als hohe F&E-Aktivität wertet und daraus Gewißheit über die zukünftige Aktualität von Produkterweiterungen ableitet. Zudem zieht der Nachfrager aus F&E-Aktivitäten Rückschlüsse auf die Finanzkraft und die Fähigkeit des Unternehmens, einen evt. Anbieter-Shakeout zu überleben.[140]

4.1.3   Loyalität

Umschrieben bedeutet Loyalität, daß ein Nachfrager enttäuscht wäre, wenn er das Produkt seiner Wahl nicht erwerben könnte[141]. Loyalität bezieht sich damit zum einen auf ein bestimmtes Produkt, zum anderen auch auf das Produkt eines bestimmten Herstellers. Voraussetzung für Loyalität sind positive Erfahrungen so, daß der Nachfrager das Produkt bzw. den Hersteller im Vorfeld einer zukünftigen Kaufentscheidung auch damit assoziieren kann. Eine positive Erfahrung kann beispielsweise darin bestehen, daß eine ex ante mit hohem Risiko behaftete Kaufentscheidung sich im nachhinein als die individuell beste Lösung herausstellt.

Dieser Fall läßt sich auf den Systembindungseffekt anwenden: Systembindung verursacht beim Nachfrager Angst vor einem zukünftigen lock-in, d.h. einer Strategie des Anbieters, die darauf abzielt, das eigene System nicht für Komplementärprodukte anderer Hersteller zu öffnen. Der Nachfrager ist bei Folgekäufen in seiner Auswahl auf Produkte eines Anbieters beschränkt. Werden diese Befürchtungen nicht bestätigt, entsteht beim Kunden Zufriedenheit.

Diese positive Erfahrung ist Voraussetzung für das Entstehen von Vertrauen.[142] Vertrauen und Zufriedenheit sind die Grundsteine für die immer wiederkehrende Wahl ein und desselben Anbieters. Für den Nachfrager ist bei zukünftigen Kaufentscheidungen Vertrauen ein universell einsetzbares Informationssubstitut, denn er will den Anbieter nicht wechseln.[143]

Hiermit ist auch eine strategische Überlegung des Anwenders verbunden: sein Vertrauen basiert auf der Annahme, daß dem Hersteller zufriedene, loyale Kunden wichtiger sind als enttäuschte Kunden, die bei der nächstbesten Gelegenheit den Anbieter wechseln werden.

Gerade Systemgüter sind Güter mit Dominanz von Vertrauensqualitäten, denn viele kaufrelevante Qualitätseigenschaften können sowohl vor als auch nach dem Kauf nicht zu vertretbaren Kosten beurteilt werden.[144] Der Anbieter muß hier ansetzen und dem Kunden zu positiven Erfahrungen verhelfen. Eine Möglichkeit im Bereich Software besteht beispielsweise darin, zunächst eine eingeschränkte Version des Produktes gratis zu verteilen, so, daß der Kunde zu geringen Kosten sich von der Leistungsfähigkeit überzeugen kann. Ein positives Erlebnis wird die Kaufentscheidung wesentlich beeinflussen.

Loyalität bedeutet für den Nachfrager freiwilligen Verzicht auf Informations- und Kontrollmöglichkeiten, was den Beschaffungsaufwand und die Unsicherheit reduziert. Für den Anbieter stellen loyale und zufriedene Kunden gesicherten Absatz dar. Auf Vertrauen basierende Geschäftsbeziehungen führen damit für den Nachfrager zu einem verbesserten Verhältnis Aufwand-Leistung und für den Anbieter zu einem höheren Ertrag.[145]

Ebenso möglich ist allerdings auch eine generell ablehnende Haltung einem Hersteller gegenüber. Die Tatsache, daß die Mehrzahl der heute verwendeten Software von Microsoft stammt, erhöht die Wahrscheinlichkeit auf gravierende Programmfehler in einem der Produkte zu stoßen. Die daraus resultierende Unzufriedenheit überträgt sich leicht auf das komplette Sortiment. Selbst wenn ein anderes Produkt, wie zum Beispiel Netscape abgestürzt, ist Windows der Überbringer der schlechten Nachrichten.

Engagierte Netznutzer sehen in der Bemühung von Microsoft, den Architekturkampf gegen Netscape zu gewinnen, die Gefahr eines weiteren natürlichen Monopols für Microsoft, ähnlich dem bei Betriebsystemen und Standardanwendungen. Neben den objektiv nachvollziehbaren Einwänden gegen eine drohende Marktübernahme durch Microsoft gibt es Anwender deren Abneigung bestenfalls mit Paranoia zu erklären ist. So finden sich bereits eine Vielzahl von Microsoft- und Bill Gates „Haßseiten“ im Web sowie zahlreiche Newsgroups, wie z.B. „news:\\alt.microsoft.die.die.die“ auf denen Meldungen über neue Bugs oder Sicherheitslücken genüßlich ausgekostet und verbreitet werden. Grundstimmung wie diese lassen sich gezielt ausnützen.

4.1.4   Neugier

Trägheit oder Angst vor Neuem sind für den klassischen Internetbenutzer untypisch, wenn man den demographischen Statistiken glaubt, gemäß denen sich vornehmlich junge, neugierige, technisch versierte Computerfans mit überdurch­schnittlicher Bildung im Web tummeln. Selbst halbfertige Betaversionen der neusten Software werden Millionenfach heruntergeladen. Laut Gilbert und Strebel ist es für innovative Produkte charakteristisch, daß sie den Nachfragern allein aufgrund ihrer Neuartigkeit per se schon einen hohen Nutzen vermitteln.[146]

Diversive Neugier ist gemäß Berlyne[147] die Reaktion eines Menschen auf Langeweile. In einer reizarmen Situation sucht ein Individuum willkürlich nach neuen Stimuli. Neugier stellt für nicht spezialisierte Arten einen ebenso bedeutsamen Trieb dar, wie Hunger oder Arterhaltung.[148]

Der Theorie des Optimalen Stimulationslevels (OSL) besagt, daß jeder Mensch einen individuellen Level an Erregung oder Stimulation besitzt, bei dem der positive Effekt der Erregung am stärksten ist. Menschen versuchen besonders hohe oder niedrige Stimulation zu vermeiden, indem sie nach Erregung suchen, sobald der aktuelle Wert zu niedrig ist oder sich zurückziehen, wenn ihnen die Erregung zu hoch erscheint.[149] Neugiermotiviertes Verhalten ist demzufolge eine Funktion der Differenz des aktuellen Stimulationslevels vom Optimalen Stimulationslevel einer Person. Raju wies 1980 nach, daß der OSL signifikant positiv mit der Bildung und dem Berufsstatus und signifikant negativ mit dem Alter korreliert. Weitere Untersuchungen haben gezeigt, daß Männer generell einen höheren OSL aufweisen als Frauen.[150] Der typische Träger eines hohen OSL ist demnach jung, männlich, gebildet, und hat eine qualifizierte Arbeit.[151] Dieses Profil deckt sich mit den Erkenntnissen über die typischen Lead User des Internet. (siehe Abschnitt 2.7.3.2). Dieser Bedarf an neuen Stimuli kann durch die betonte Neuartigkeit einer Internettechnologie befriedigt werden. Wenn das Internet allerdings den prognosti­zierten Sprung, von der Spielwiese für Studenten und Technikfreaks hin zum Massenmedium macht, wird sich dies allerdings schnell ändern (siehe Abschnitt 2.7.3.3). Bei denen hinzukommenden Normalusern des Internet kann von einer höheren Trägheit ausgegangen werden, weshalb hierauf abgestimmte Strategien zukünftig an Bedeutung gewinnen werden.

4.2      Kontextfaktoren der Angebotsseite

4.2.1   Finanzielle Mittel

Die Wahl der Strategie wird durch die verfügbaren finanziellen Mittel eines Unternehmens stark eingeschränkt. Das überaus erfolgversprechende Vorgehen, Software zunächst kostenlos zu Verteilen um die kritische Masse zu überwinden, setzt voraus, daß die Firma die enormen Entwicklungskosten mittelfristig aus anderen Quellen finanzieren kann. Im Silicon Valley springen hierbei verstärkt sogenannte „Venture Capital“ Firmen ein, die sich darauf spezialisiert haben nach vielversprechenden neuen Technologien Ausschau zu halten, um diese dann durch Risikokapital zu unterstützen. Eine andere Möglichkeit ist die Finanzierung aus den Erträgen anderer Geschäftsbereiche. Im Falle Sun oder Microsoft sind die Entwicklungsausgaben für Internetsoftware leicht aus den Gewinnen mit Betriebsystemen, Serversoftware und Anwendungsprogrammen zu decken. Bei Netscape dagegen machten die Erlöse aus dem Browsergeschäft 1997 noch gut ein Drittel des Umsatzes aus, weshalb man nur schwer auf eine Nutzungsgebühr verzichten konnte. Erst als der Marktanteil durch den kostenlosen IE unter Druck geriet, besann man sich auf das ursprüngliche Geschäftsmodell, den Browser kostenlos zu verteilen und Geld mit Zusatzprodukten und Werbung auf der Webseite zu verdienen. Die finanzielle Situation bleibt jedoch weiterhin kritisch, weshalb seit Februar 1998 die Gerüchte um eine baldige Übernahme durch einen finanzstarken Partner wie Sun, AOL oder Oracle kursieren. Dadurch könnte man sich auch wieder mit Microsoft messen. Keine Firma hat bis jetzt annähernd soviel Geld in Internetsoftware gesteckt, wie Microsoft, obwohl die meisten ihrer Produkte kostenlos sind. Angesichts der Milliardengewinne aus anderen Geschäftsfeldern fallen dies Ausgaben kaum ins Gewicht. Die Opportunitätskosten einer Niederlage im Internet wären bedeutend höher, da durch Java das Kerngeschäft von Microsoft unmittelbar bedroht wird.

4.2.2   Image

Böcker definiert das Image als ein „subjektiv gefärbtes Bild eines Einstellungsgegenstandes“. Es sei der Ausgangspunkt aller menschlichen Entscheidungsprozesse.[152]

Eine Studie von Backhaus, Droege und Weiber ergab, daß bei der Anbieterwahl der technologischen Kompetenz eine höhere Bedeutung zukommt als der Kompatibilität.[153] Solange der Kunde die Kompetenz einer Firma nicht selbständig beurteilen kann, muß er auf Signale zurückgreifen, daß heißt er bewertet die Unternehmen nicht anhand der realen Gegebenheiten, sondern anhand seiner subjektiven Vorstellungen von den diesen.[154]

Neben der Kompetenz, von der die stärkste Bindungswirkung ausgeht,[155] spielen auch Faktoren wie Sympathie eine Rolle. Der Prozeß der Imagebildung kann durch kommunikationspolitische Maßnahmen beeinflußt werden (siehe Abschnitt 4.1.2).

Das Image von Netscape profitiert vor allem von “First Mover Advantages”. Ähnlich wie “Tempo” für Papiertaschentücher und “Tesa” für Klebeband steht, so denkt man bei einem Webbrowser automatisch an Netscape. Interessanterweise hält dieser Effekt nicht unbegrenzt lange an. Netscape mußte sich diesen Status zunächst gegen Mosaic erkämpfen und kann ihn und damit das Fundament ihres Erfolges ebenso wieder verlieren.

Die Tatsache, daß eine Firma der Begründer eines Standards ist, bedeutet nicht notwendigerweise, daß ihre Produkte auch die hochwertigsten sind, jedoch werden sie von Konsumenten die nicht in der Lage sind die Qualität objektiv zu bewerten, aufgrund der vorhandenen Signale als solche eingeschätzt.

4.2.3   Marktstruktur

Der Markt für Internetsoftware befindet sich zur Zeit in einer Phase der Konsolidierung vom Polypol hin zum Oligopol. Die meisten der Startups sind bereits von einem der größeren Player akquiriert worden[156] oder vom Markt verschwunden. Bei den Browsern ist neben Netscape und Microsoft nur die Firma Opera von Bedeutung, die es geschafft hat, sich durch die Größe ihres Browsers weit genug zu differenzieren.[157]

Kompatibilitätsprobleme können am leichtesten gelöst werden, wenn alle Bestandteile eines Systems von nur einem Hersteller kommen. Schwieriger wird das Vorhandensein mehrerer gleich starker Unternehmen mit Technologien vergleichbarer Qualität.[158] Dies entspricht Williamsons Transaktionskostentheorie[159], wonach Geschäftsbeziehungen mit hoher Spezifität und damit hohen Abhängigkeiten zwischen den Vertragspartnern über vertikale Integration effektiver abgewickelt werden als über den Markt. Beim derzeitigen Duopol bestehend aus Microsoft und der Allianz um Sun und Netscape, deren stärkstes Bindeglied der Wille den Markt vom „Würgegriff“ von Microsoft zu befreien ist, erreichen beide Parteien sehr hohe Marktanteile, weswegen der Anreiz zur Zusammenarbeit geringer ausfällt als bei einem vollkommen zersplittertem Markt. Jede Seite ist hauptsächlich damit beschäftigt die andere zu bekämpfen, was sich in aggressiven Maßnahmen niederschlägt.

4.2.4   Technologie

Solange sich eine Technologie noch in den Kinderschuhen befindet ist es nur schwer möglich, große und nachhaltige Kompetenzvorsprünge gegenüber den Wettbewerbern zu erlangen. Dagegen kann die Kompetenz auf einem verwandten Markt zu Wettbewerbsvorteilen führen.[160] Falls diese Erfahrungen direkt bei der neuen Technologie anwendbar sind, gelten in eingeschränktem Maße die Effekte der Erfahrungskurven Theorie, wodurch ein Anbieter, der schon lange auf einem verwandten Markt tätig ist, selbst bei spätem Markteintritt nicht in Rückstand gegenüber den Innovatoren gerät. Davon profitierte zum Beispiel IBM als sie sich, viel später als Apple, auf dem PC-Markt engagierten. Die starke Position bei den Großrechnern verschaffte IBM zum einen ein enormes Startkapital an Know-how, nicht nur im Bezug auf Technik, sondern auch auf Marketing, zum anderen lieferte erst der Markteintritt von „dem Riesen“ IBM, für viele Nachfrager, das Signal für die Zukunftssicherheit dieser Produkt­­­­kategorie.[161]

Kleinaltenkamp vertritt die These, daß sich Standardisierung langsamer vollzieht je neuartiger die Technologie ist, da viele Informationsprobleme beispielsweise bezüglich der Potentiale und Grenzen noch zu lösen wären.[162] Diese Verzögerungen dürften aber im Falle der Internetstandards durch die Effekte der verstärkten Neugier der typischen Anwender wieder ausgeglichen werden (siehe Abschnitt 4.1.4). Deutlicher ist der Einfluß der Leistungsfähigkeit und der Verbreitung einer eventuell vorhandenen Vorgängertechnologie. Bei einem großen Leistungsplus kann auch eine weitverbreitete Technologie ersetzt werden wie der Übergang von Analogplattenspieler zu Compact Disks gezeigt hat.

Ist der Gewinn jedoch nur gering, hängt die Wahrscheinlichkeit des Wechsels von der Realisierbarkeit von Kompatibilität ab. Bei besonders neuen Technologien vollzieht sich der Prozeß der Standardisierung um so langsamer, je größer die Komplexität der Produkte ist, da in diesem Falle verstärkt Schnittstellenprobleme zu lösen sind um Kompatibilität zu gewährleisten. Im Extremfall kann Komplexität zur Verhinderung eines allgemeingültigen Standards führen. Beispielsweise sind manche Lösung so sehr auf die Bedürfnisse eines Kunden maßgeschneidert, daß es quasi zur Vermarktung eines einzigen Produktes kommt.[163]

4.2.5   Nachfragemacht

Bei großer Macht und Know-how seitens der Nachfrager haben auch diese entsprechend große Einfluß auf die tatsächliche Form eines Standards.[164] Im Falle von Großkunden wie dem Staat oder dem Militär diktieren diese durch ihre Mindestansprüche die Form des Standards. Aber auch einzelne Kunden können Einfluß nehmen. Bei Software kommt es häufig vor, daß neue Versionen Funktionen enthalten, die erst auf Anregung der Kunden von Vorgängerprodukten aufgenommen wurden. Microsoft pflegt im Internet eine „Whish list“, in der die Anwender konkrete Vorschläge für Produktverbesserungen geben sollen. Laut eigenen Angaben stammen 50% der Neuerungen in Windows 98 aus diesem Feedback.[165] Die Nutzer werden also zu unbezahlten Entwicklern. Noch größeren Einfluß haben die zahlreichen Betatester, mit denen über Internet, Newsgroups und diverse Formulare kommuniziert wird. Netscape veröffentlichte im April 1998 sogar den kompletten Programmcode seines nächsten Navigator 5.0 und ermutigt freie Entwickler dazu, diesen selbständig zu modifizieren. Besonders gelungene Varianten sollen in Zukunft Einzug in die offizielle Version halten.

Den größten Einfluß haben die Kunden jedoch, sofern verschiedene Standards gleichberechtigt um die Etablierung als De-facto Lösung konkurrieren, in sie dem eine Technologie ignorieren.

4.3      Maßnahmen zur Etablierung eines Standards

Der Schlüssel zur Schaffung eines De-facto Standards ist die Akzeptanz durch die Nutzer. Durch die Berücksichtigung von verschiedenen, typischen Verhaltensweisen von Konsumenten kann der Grad der Akzeptanz durch das Unternehmen beeinflußt werden. Das Ziel dieser Beeinflussung ist, bei gegebener Leistungsfähigkeit die zur Etablierung nötige Akzeptanz bei geringerer Offenheit zu erlangen.

Abbildung 6: Anbieter- und Kunden Akzeptanz in Abhängigkeit von Offenheit und Verbreitung.

Die Verschiedenen Maßnahmen zur Erhöhung der Akzeptanz sind im Folgenden nach den vier marketingpolitischen Instrumenten Produktpolitik, Preispolitik, Distributionspolitik und Kommunikationspolitik untergliedert.[166] Im Angel­sächsischen bezeichnet man sie als die vier P[167]. Dabei ist zu beachten, daß die Erhöhung des Kundennutzens durch mehr Leistung aus Abschnitt 4.1.1 ebenfalls zum Marketing Instrumentarium gezählt wird Hinzu kommt ein fünftes P (Powerplay) für Maßnahmen, die sich nicht eindeutig in das herkömmliche Schema einordnen lassen, die aber alle der Machtpolitik zugeordnet werden können.

4.3.1   Produktpolitik

4.3.1.1       Leistung

Die einleuchtendste Maßnahme zur Erreichung von Kundenakzeptanz ist es schlicht, zu einem gegebenen Zeitpunkt das objektiv beste Produkt anzubieten. Tritt man damit gegen einen etablierten Standard an, muß der Qualitätsvorsprung reichen, um die Wechselkosten wieder auszugleichen. Genau hierin lag der Fehler, den IBM bei der Einführung des PS/2 machte (siehe Abschnitt 3.4.1). Diese Rechner waren zwar leistungsfähiger als ihre Vorgänger, die oft kopierten und stets erreichten PCs; jedoch lagen die Verbesserungen im Detail. Ihnen gegenüber stand der Nachteil, daß alle Hardwareerweiterungen wie Netzwerkkarten oder Festplattencontroller nach dem alten ISA (Industry Standard Architecture) Standard nicht mehr verwendet werde konnten. Der Wechsel war somit nicht attraktiv genug. Anders verlief der Wechsel zum Netscape Navigator. der aufgrund seiner Leistungsfähigkeit zu einer schnellen Marktdominanz kam und Mosaic fast vollständig verdrängen konnte.

Microsoft holte diesen Vorsprung erst mit Version 3.0 des IE auf. Der Nutzer hat seit dem die Wahl zwischen zwei technisch weitgehend ebenbürtigen Produkten, weshalb nun subtilere Mittel beim Kampf um Marktanteile eingesetzt werden.

Bei der Durchsetzung einer Architektur genügt es oft eine einzige, sogenannte „Killerapplication“ zu schaffen. Darunter versteht man eine Anwendung, die für sich genommen so leistungsfähig ist, daß sie, vergleichbar einer Kettenreaktion, die Akzeptanz der gesamten, zu ihr gehörigen Architektur bewirkt, da vermeintliche Schwächen eines Systems durch die bessere Kompatibilität zur Killerapplication an Attraktivität gewinnen. Die Verfügbarkeit der Tabellenkalkulation „Lotus 123“ galt mit als Grund für den Erfolg von MS-DOS. Der Durchbruch der PC Plattform bei den Computerspielen wurde durch die 3D Weltraumschlacht „Wing Commander“ geebnet, die in der Form auf den damals etablierten Spielcomputern wie dem Commodore Amiga nicht möglich gewesen wäre.

4.3.1.2       Kompatibilität

Im Falle von mehren konkurrierenden oder aufeinander aufbauenden Technologien ist zu klären, welchen Grad an Kompatibilität erstrebenswert ist.

In der extrem schnellebigen EDV Branche bedeutet Kompatibilität zu wahren stets auch Abstriche bei der Leistung in Kauf zu nehmen. Um Kompatibilität bei Hard- und Software zu gewährleisten, müssen bei neuen Produkten die inzwischen erkannten Designfehler ihrer Vorgänger quasi zwangsweise wiederholt werden. Selbst ein aktueller „Intel Pentium Pro“ (80686) enthält noch den kompletten Befehlssatz des fast 20 Jahre alten „Intel 8086“. Eigenständige Chipdesigns wie der „DEC ALPHA“, die sich bei ihrem Befehlssatz auf das wesentliche konzentrieren können,[168] leisten erheblich mehr. Gleiches gilt für Software wie Windows 95. Um zu alten MS DOS und Windows Versionen kompatibel zu sein, wurden große Teile dieses Betriebssystems noch in veralteter 16BIT Technologie geschrieben, was sich negativ auf die Geschwindigkeit und die Stabilität auswirkt. Das weitgehend neu entwickelte, reine 32BIT System Windows NT verzichtet dagegen auf uneingeschränkte Abwärtskompatibilität zugunsten von Leistung.[169] Aufsehen erzeugte 1996 die kleine Firma BE mit ihrem 32 BIT Betriebssystem BEOS und dem Mikrocomputer BEBOX. Es handelte sich um eine vollständige Neuentwicklung, die zu nichts kompatibel war, jedoch recht eindrucksvoll vermittelte, wie leistungsfähig der theoretisch aktuelle Stand der Technik im Vergleich zu wesentlich kostspieligeren Windows/Intel Lösungen war.

Inkompatibilität ist jedoch nicht im Sinne des Anwenders, da er somit keinen Zugriff auf das Angebot an Ergänzungsprodukten hat und eventuell getätigte Investitionen verloren sind. Dies ist der Grund, warum der Markt weitgehend von vermeintlich leistungsschwächeren, kompatiblen Lösungen beherrscht wird. Um sich aus dem Korsett des veralteten Standards zu befreien, kann dieser um neue Funktionen ergänzt werden (siehe Abschnitt 2.2). Im Falle von mehreren Firmen die um die Gestaltung des erweiterten Standards konkurrieren, ist es jedoch wahrscheinlich, daß die jeweils entwickelten Erweiterungen untereinander wiederum inkompatibel sind. Es bleibt der alte Standard als kleinster gemeinsamer Nenner. Abbildung 7 soll den Zusammenhang zwischen Leistung und Kompatibilität zweier Konkurrierender Lösungen verdeutlichen:

Abbildung 7: Leistungs- / Kompatibilitäts-Tradeoff im Duopol

S bezeichnet den etablierten Standard. Alle Hersteller unterstützen mindestens diese Funktionen. Die Rechtswert-Achse stellt die Kompatibilität zum Standard dar. Je weiter entfernt von S ein Punkt liegt, desto größer ist die Abweichung vom Standard. Die Technologie der Firma A deckt den Bereich von Punkt A bis Punkt Z ab, die der Firma B den Bereich von B bis Y. Der Bereich von Y ist Z wird von beiden unterstützt. Die Hochwert-Achse bezeichnet die Leistungsfähigkeit der Technologie, beispielsweise durch die Zahl der Funktionen gemessen. Die Bereiche von A bis Y und von Z bis B werden jeweils nur von einem der beiden Konkurrenten unterstützt.

Für den Anwender ergibt sich das Dilemma, sich entweder für Kompatibilität oder für mehr Leistung zu entscheiden. Dieses Diagramm läßt sich auf die derzeitige Situation bei den beiden wichtigsten Webbrowsern, dem Netscape Navigator und dem Microsoft Internet Explorer, anwenden. Alle derzeit verwendeten Webbrowser unterstützen mindestens HTML 2.0, weshalb diese an S gesetzt wird. Darüber hinaus unterstützen die aktuellen Browser beider Konkurrenten die erweiterte HTML 3.2 Spezifikation (Punkt Y und Z). In der jeweils vierten Generation, die durch die Punkte A und B repräsentiert wird, enthalten beide Browser zahlreiche, spezifische Erweiterungen, beispielsweise den „AOL Instant Messenger“ oder den Netcaster im Navigator 4.05 oder Aktive X (siehe Abschnitt 2.6.2.2) und die Microsoft Variante von „Dynamic HTML“ im IE4. Potentielle Anwender, in diesem Falle die Gestalter von Webseiten, haben nun die Wahl: entweder sie verwenden den „kleinsten gemeinsamen Nenner“, der in der Programmierung in reinem HTML liegt und eine größtmögliche Erreichbarkeit gewährleistet oder entscheiden sich für die Anwendung der verbesserte Technologie von IE4 oder Navigator 4.0, wobei nur maximal die Hälfte aller Internetnutzer erreicht werden kann.

Eine einseitige Kompatibilität gegenüber einem Standard durch Entwicklung einer proprietären Erweiterung stellt eine aggressive Strategie dar, bei der die Verbreitung der Technologie der Wettbewerber ausgenutzt wird. Sie entspricht der produktübergreifenden Abwärtskompatibilität (siehe Abschnitt 2.2) zwischen verschiedenen Herstellern. Während letztere einen sanften Übergang zu einer neuen Produktgeneration gewährleisten soll, ist es das Ziel der einseitigen, herstellerübergreifenden Kompatibilität, die fremde Verbreitung auszunutzen. Die installierte Basis der anderen Technologie kann genutzt werden aber nicht umgekehrt. Dadurch wird die eigene installierte Basis bei gleichzeitiger Abschottung von etablierten Systemen erhöht.[170]

Würde sich eine reine Form von Java etablieren, gäbe es für Internetbenutzer keinen Grund mehr, Windows zu benutzen, da Java Virtual Machines, der Navigator sowie alle anderen Arten von Internetsoftware ebenso für Macintosh oder UNIX Systeme verfügbar sind. Daraus ergibt sich für Microsoft die Notwendigkeit, die Etablierung eines plattform-unabhängigen Javas und des NC zu verhindern. Das Motto lautet ”embrace and extend”, was soviel bedeutet wie: Alle Internet Standards unterstützen und derartig erweitern, daß sich die Microsoft Version der Standards durchsetzt und die dazugehörigen Produkte unersetzlich werden. Microsoft intern lief die Rückeroberung des Internet unter dem Codenamen „Jihad“ (Heiliger Krieg).[171]

Ein Teil der Strategien bestand darin, den Java Standard zu „verunreinigen“. Im herkömmlichen, sogenannten „Sandkastenmodell“ laufen Java Programme nur innerhalb der Virtual Machine ab und haben keinen Zugriff auf Systemfunktionen ihres Wirtsbetriebssystem. Die JVM des IE werde jedoch um neue Java Befehle erweitert, durch die es Javaprogrammen gestattet wird, auf Windows Subsysteme, wir den Druckertreiber oder den Virtuellen Speicher zuzugreifen. Dermaßen angepaßte Programme sind aber auf einer anderen Plattform als Windows nicht lauffähig. Das Argument, sie würden eine erhöhte Funktionalität bieten ist fragwürdig, da für Programme die sowieso nur unter Windows funktionieren ActiveX die bessere Lösung darstellt. Das Ziel kann abermals wörtlich in internen Dokumenten nachgelesen werden: „kill cross-platform Java by growing the polluted Java market”.[172]

Durch diese Vorgehensweisen wird jedoch nicht automatisch die eigene Technologie etabliert, sondern nur die Standardtechnologie (Y-Z) gestärkt. Zusätzlich muß dafür gesorgt werden, daß die einzigartigen „Features“ (A-Y bzw. Z-B) auch genutzt werden. Dazu muß der Gewinn an Leistung durch die gezielte Inkompatibilität so hoch sein, das es für den Nutzer attraktiver ist, Technologien aus der Fläche zwischen Punkt Z und B anzuwenden.[173] In der Grafik entspricht dies einem besonders steilen Anstieg der Leistungs- / Kompatibilitätslinie.

4.3.1.3       Integration

Der Name „Internet Explorer“ sollte von Anfang an seine enge Verknüpfung zu Windows demonstrieren, da die eingebaute Benutzeroberfläche seit Windows 95 ebenfalls den Namen Explorer trägt.[174] Integration geht über bloßes Bundling (siehe Abschnitt 4.3.3) in dem Sinne hinaus, daß sie dem integrierten System mehr Funktionalität geben soll als die Summe seiner separaten Bestandteile besitzt. Schon früher konnte sich Microsoft durch die Integration einzelner Standardanwendungen wie Textverarbeitung und Tabellenkalkulation zum „MS Office“ Paket gegenüber seinen Mitbewerber absetzen. Der Reiz für den Anwender liegt in der einheitlichen Bedienung, dem reibungslosen Datenaustausch und der gemeinsamen Benutzung von anwendungsübergreifenden Funktionen wie individualisierbare Rechtschreibprüfung oder Adressenverwaltung.

In den nächsten Versionen, Windows 98 und Windows NT 5.0, wird das Betriebssystem vollkommen mit dem nächsten Webbrowser, Internet Explorer 4.0 verschmelzen. Für den Anwender macht es dann keinen Unterschied mehr, ob er auf Daten auf seiner Festplatte oder aus dem Internet zugreift.

Ziel der Integration ist es, aus einzelnen Produkten, komplette Architekturen zu entwickeln, die für sich eigene Netzwerk-Externalitäten entwickeln können. Durch die Integration von MS Office profitierte jedes seiner Bestandteile von den anderen Komponenten. Der Nachteil, nicht zur Office Architektur zu gehören, führte dazu, daß Einzelanwendungen wie die Textverarbeitung WordPerfect und die Tabellenkalkulation Lotus 1-2-3 trotz eventueller Überlegenheit gegenüber ihrem Office Gegenstück vom Markt gedrängt wurden. Begünstigt wird dies durch Integration mit den in Abschnitt 4.3.1.1 eingeführten „Killerapplications”.

Die Integrationsstrategie kann nur von den Herstellern etablierter Produkte gefahren werden, weshalb Microsoft im Hinblick auf seine Produktpolitik Vorwürfe wegen unfairem Wettbewerbsverhalten gemacht werden. Allerdings wird es schwierig werden Microsoft diese Strategie zu verbieten, da das dadurch entstehenden Endprodukt dem Kunden objektiv mehr Nutzen bietet, und ihm eine Desintegration somit Schaden zufügen würde. Inzwischen gibt es auch eine beträchtliche Anzahl von Drittanbietern, deren Produkte auf das Vorhandensein eines integrierten Internet Explorers angewiesen sind, da sie Gebrauch von seiner HTML Darstellung machen. Auch diese Produkte, wie zum Beispiel die neuesten Versionen des E-Mail Programms „Eudora“ oder der Finanzsoftware „Quicken“ würden durch eine Herauslösung des IE aus Windows benachteiligt werden.[175] Interne Memos von Microsoft beweisen allerdings, daß es in erster Linie um die Verdrängung von Netscape ging und nicht um die Erhöhung des Kundenwohls.[176]

4.3.1.4       Sortimentspolitik

Die Dominanz im Browsermarkt ist nur der Anfang auf dem Weg zur totalen Kontrolle über alle Massenmedien und darüber hinaus. Den nächsten Schritt bilden TV Geräte mit eigenem Internetzugang, wie ihn etwa die erst kürzlich von Microsoft akquirierte Firma Web-TV anbietet. Wenn sich die Browserbedienung erst einmal so weit durchgesetzt hat, kann sie praktisch überall eingesetzt werden, ob zur Bedienung eines Handys oder zur Programmierung eines Auto-Navigationscomputers. Hierfür müssen vor allem Lizenzabkommen und Joint Ventures mit den entsprechenden Hardwareherstellern à la Sony, Philipps oder Nintendo geschlossen werden. In diesem Marktsegment tritt die Netscape Tochter Navio gegen Windows CE, die neue Westentaschenversion von Windows 95, an.

Die bequeme Verfügbarkeit neuer Programmgenerationen über das Internet ermöglicht eine Updatepolitik[177] mit besonders kurzen Intervallen. Padmanabhan et. al. argumentieren, daß die Vorgehensweise, ein neues Produkt zunächst in suboptimaler Qualität herauszubringen, um sich dann in Updates häppchenweise zu steigern ein positives Spence Signal (siehe Abschnitt 4.1.2) für ein großes Marktpotential darstellt. Sie empfehlen einem Hersteller, der aus Marktforschungen weiß, daß sein Produkt eine hohe Verbreitung nebst Netzwerk-Externalitäten aufweist, die Qualität der ersten Version gezielt zu verringern, während ein Hersteller eines potentiellen Nischenproduktes sofort das gesamte Qualitätspotential ausschöpfen sollte. Die einfache Erklärung dahinter besagt, daß nur wer weiß, daß seine Technologie noch eine lange Zukunft vor sich hat, es sich erlauben kann, eine schwache erste Version abzuliefern.[178] Wenn den Kunden dieser Zusammenhang bewußt ist, funktioniert der Signalmechanismus und gerade die schlechte Qualität erhöht die Akzeptanz.

So widersprüchlich diese Theorie auch klingen mag, so ist doch zu beobachten, daß gerade im Falle von Microsoft die jeweils erste Generation eines neuen Produktes kaum zu benutzen war. Der amerikanische Industrieanalyst Bob Cringely identifizierte ein Vier-Stufen-Vorgehen bei jeder neuen Produktgattung. Das erste Produkt dient nur der Marktforschung. Mit ihm kann herausgefunden werden, was die Kunden tatsächlich wollen. Die nächste Version zeigt schon einiges an Potential, dient aber immer noch dazu, Erfahrungen zu sammeln. Mit der dritten Version schließt man dann mindestens zum Mitbewerber auf, um ihn dann mit der nahezu perfekten vierten Version zu verdrängen.[179] Dies Schema läßt sich auf nahezu alle bedeutenden Microsoft Produkte anwenden, so auch auf den Internet Explorer, dessen Version 1.0 bestenfalls Alibicharakter hatte. Aus der hämischen Kritik der Fachwelt ließ sich jedoch einfach erkennen, worauf bei einem Browser primär zu achten ist. Version 2.0 war dem damaligen Netscape Browser immer noch weit unterlegen, was Geschwindigkeit sowie Java und HTML Unterstützung betraf, zeigte aber in Details wie der Bookmarkverwaltung[180] und der Zusammenarbeit mit Windows95 schon bessere Ansätze. Mit der dritten Generation hatte man jedes Leistungsmerkmal des Navigators erreicht, dazu kamen jedoch noch Funktionen wie ActiveX Unterstützung, die der IE3 exklusiv bot. Die aktuelle, vierte Generation gewann praktisch alle Vergleichstests unabhängiger Computermagazine.

4.3.1.5       Time to Market

Bedingt durch das Problem der „kritischen Masse“ bei Netzwerkprodukten sowie die Image Vorteile eines "First Movers" ist es wichtig, Produkte möglichst schnell auf den Markt zu bringen, selbst wenn dies auf Kosten der Qualität geschieht. Der „leverage effect” des Faktors Zeit erfordert es, vor dem Wettbewerb zu denken um einen Zeitvorsprung mit Hebelwirkung zu realisieren, anstatt nur darauf aus zu sein, an der Spitze des technischen Fortschritts zu stehen.[181] Später ins Spiel gebrachte Festlegungen müssen entweder erheblich leistungsfähiger sein als die existierende oder von einem dominierenden Akteur mit Hilfe seiner Marktmacht durchgesetzt werden.[182]

Speziell im Bereich Internetsoftware ist das Vorgehen weit verbreitet, Produkte schon vor ihrer endgültigen Fertigstellung zur Verfügung zu stellen. Diesen sogenannten Betaversionen fehlen zum einen noch viele geplante Merkmale des Endproduktes, zum anderen sind Programmabstürze wesentlich wahrscheinlicher als bei den „release“ oder „final“ Versionen. Trotzdem herrscht bei den Anwendern eine enorme Nachfrage nach Betaversionen. Die Betaversionen der beiden wichtigsten Browser wurden mehrere Millionen mal aus dem Internet übertragen. Die Kommunikationssoftware ICQ, die sich immer noch im Beta-Stadium befindet, besitzt laut Angaben der Herstellerfirma Mirabilis derzeit rund 12 Millionen Nutzer.[183] Je nach Schätzung der aktuellen Verbreitung des WWW entspricht das um die 10% aller Webnutzer.

Dies kann mit der überdurchschnittlich stark ausgeprägten Neugier der bisher typischen Internet Benutzer erklärt werden. Die neuste Version zu benutzen schafft für sie einen Extranutzen. Die Absturzträchtigkeit der unfertigen Software appelliert dagegen an die risikofreudigen Anwender (siehe Abschnitt 2.7.3.2 und 4.1.4.)

Ein anderer Grund für die anhaltende Beliebtheit von Betasoftware ist der im Internet anzutreffende rasante technische Fortschritt. Während bei Textverarbeitung seit beispielsweise WinWord 2.0 nur noch Details verbessert wurden enthält jede neue Browsergeneration eine Vielzahl von neuen Funktionen, welche die Nutzer der Vorgänger aktiv nachgefragt haben. Für die Anbieter hat dies nur Vorteile. Durch die vielfach eingesetzten Betaversionen kann schon vor der offiziellen Markteinführung eine installierte Basis geschaffen werden. Gleichzeitig liefern die Beta Nutzer vielfach wertvolle Hinweise auf Programmfehler oder Verbesserungsvorschläge für einzelne Funktionen, da sie meistens besonders geübte Anwender sind. Dem Hersteller wird auf diese Weise kostenlos Know-how zur Verfügung gestellt. Da es sich um keine offiziellen Versionen handelt, sind sie auch zu keinerlei Gewährleistungen oder Kundensupport verpflichtet.

4.3.2   Preispolitik

Das dringendste Ziel eines Unternehmens im Technologiewettbewerb ist nicht das Erzielen kurzfristiger Erträge, sondern die Erreichung der kritischen Masse für den eigenen Standard. Dieser Verzicht auf Profit ist jedoch nur zeitweise und wird aus den Erträgen anderer Produkte „gesponsort“.[184] Durch kostenpflichtige Updates und Zusatzprodukte in Zusammenarbeit mit der nun bestehenden Systembindung sind diese Ausgaben wieder herein zu holen. Im Prinzip handeln die Softwarefirmen nach dem hebräischen Sprichwort „Willst du Öl verkaufen, verschenke Lampen“. Der „Updatedruck“ kann durch leicht modifizierte Standards und neue Features erhöht werden.[185]

Pro Internet Explorer wird von Microsoft als zugkräftigstes Argument ”it´s free” angeführt, denn für das Konkurrenzprodukt von Netscape waren nach einer Testzeit von 30 Tagen theoretisch rund 60 Dollar zu überweisen. Wer dies unterläßt, kann auch weiterhin ein vollkommen funktionsfähiges Produkt nutzen, allerdings ohne Handbuch und Support. Dieser Verstoß gegen die Lizenzbestimmungen wurde bis heute bei keiner Privatperson geahndet. Darüber hinaus war der Navigator „für „Academic and nonprofit Organization Use” nach wie vor kostenlos nutzbar. Des weiteren vergaben die Internet Service Provider wie zum Beispiel CompuServe oder T-Online kostenlos Navigator Lizenzen an ihre Kunden. Trotzdem änderte Netscape Anfang 1998 seine Preispolitik unter dem Druck sinkender Marktanteile und vergibt nun alle Navigator und Navigator Versionen kostenlos.

Eine weitere Taktik ist die Preisdiskriminierung, d.h. die Differenzierung der Preise nach Kundensegmenten. Sie wurde in der EDV Branche schon mehrfach erfolgreich angewandt. Die Preise der IBM Großrechner System /360 stiegen bei wachsender Leistung und Ausstattung der einzelnen Modellvarianten überpro­portional an. IBM praktizierte quasi das Gegenteil von Mengenrabatten, wobei bei der einfachsten Variante bewußt eine Verlustrate von –96% in Kauf genommen wurde, um Neukunden zu gewinnen. Diese Verluste wurden durch die vergleichsweise überhöhten Preise der Topmodelle, welche vornehmlich von Altkunden nachgefragt wurden, mehr als kompensiert.[186]

4.3.3   Distributionspolitik

Die wichtigste distributionspolitische Maßnahme bei Software stellt das sogenannte Bundling dar. Es bezeichnet das Schnüren von Produktbündeln und stellt eine Vorstufe zur Integration dar. Die frühen Versionen von MS Office waren reine Programmsammlungen, die zu einem günstigeren Preis als die Summe der Einzelpreise angeboten wurden. Dadurch entsteht für den Kunden der Anreiz, alle Programme aus einer Hand zu kaufen, auch wenn eine individuelle Zusammenstellung insgesamt mehr Leistung bieten würde. Inzwischen sind die Office Pakete aller Hersteller zusätzlich mehr oder weniger stark integriert, um den Kunden weiteren Zusatznutzen zu geben.

Eine andere Form von Bundling ist es, kostenlos Produkte beizulegen, um deren Verbreitung durch die Attraktivität des Trägerproduktes zu erhöhen. So gibt es heute keine Möglichkeit mehr, den aktuellen Navigator ohne dessen kostenlose Beigabe Netcaster, Netscapes Pushdienst[187] zu installieren. Ein Käufer einer beliebigen, aktuellen Microsoft Software erwirbt automatisch auch den Internet Explorer. Bei vielen Produkten wie zum Beispiel Office 97 oder der aktuellen Windows 95 ”B” Version wird bei der Installation ungefragt ein ”Internet” Symbol auf dem Bildschirm plaziert, das direkt zur Installation des Explorers leitet.

Bei Bundling wird die Trägheit der Kunden ausgenutzt, da es zusätzliche Mühe machen würde, sich zu der Software, die man sowieso schon besitzt, noch zusätzliche zu installieren.

Diese Vorgehensweise ist erfolgversprechend, für andere Firmen aber kaum nachahmbar, sofern sie nicht eine ähnlich marktbeherrschende Stellung wie Microsoft genießen.

Andernfalls empfiehlt es sich, die Produkte über Lizenzpartner vertreiben zu lassen. Im Falle der Webbrowser sind dies vor allem die Internet Service Provider (ISPs) und die Onlinedienste.

4.3.4   Kommunikationspolitik

Ziel der Kommunikationspolitik bei Internetsoftware ist es, durch vertrauensbildende Maßnahmen den potentiellen Kunden davon zu überzeugen, zum eigenen Standard zu wechseln, ob wohl dieser derzeit noch Nachteile für den Kunden birgt, sei es durch eine geringe Verbreitung oder durch wenig Offenheit. Aufgrund der vom Nachfrager wahrgenommenen Unsicherheits- bzw. Risikopositionen müssen ihm solche Informationen zur Verfügung gestellt werden, die zur Reduktion dieser Unsicherheit beitragen können. Es ist zwar nicht möglich, dem Anwender objektiv jede Unsicherheit zu nehmen; allerdings kann aus seiner Sicht die Unsicherheit stärker unter die individuelle Akzeptanzschwelle gesenkt werden, als dies die Konkurrenten vermögen.[188]

Im Zusammenhang mit der Signalwirkung, die von einem „First Mover“ ausgeht, ist es wichtig, den historischen Zusammenhang deutlich zu kommunizieren. JVC, sowie Sony und Philipps haben es versäumt, den Kunden ins Bewußtsein zu bringen, daß sie die Erfinder von VHS beziehungsweise der Compact Disk sind, und profitieren somit auch nicht gegenüber den „Me Toos“, also den Anbietern von Nachahmungen.

Eine der von Beinlich und Weiber vorgeschlagenen Maßnahmen zur Reduktion von Unsicherheit ist es, die Technologie in Referenzprojekten zu verwenden.[189] Die Tatsache, daß eine größere Firma offensichtlich auf eine Technologie vertraut, stellt ein starkes Signal für deren Leistungsfähigkeit dar, da ein Privatnutzer davon ausgehen kann, daß diese über eine weitaus geringere Informationsasymmetrie verfügen als er und somit die Qualität besser beurteilen können. Kunden für Referenzprojekte müssen eventuell durch besondere Anreize überzeugt werden, seien es Preisnachlässe oder besondere technische Hilfestellung. Ein Beispiel ist die erfolgreiche Finanzsoftware Quicken, deren neueste Version auf Microsofts ActiveX Standard basiert. Laut der, im Zuge der Beweisaufnahme im laufenden Kartellverfahren gegen Microsoft, an die Öffentlichkeit geratenen internen E-Mails, war ein „Millionen Dollar Gefallen“ von Bill Gates nötig.[190] Die meisten Microsoft Referenzprojekte werden allerdings eigenständig betrieben. Zu nennen wären der Internet Aktiendienst „MS Investor“, das Virtuelle Reisebüro „MS Expedia“, der Autohändler „Carpoint“, der Onlinedienst „MSN“, die Anlaufstelle für Internetspiele „The Zone“ oder der in Zusammenarbeit mit der US Fernsehgesellschaft NBC betriebene Nachrichten­kanal „MSNBC“. In so manchem Zeitungsartikel wird vermutet, daß diese Aktivitäten eine Differenzierung des Portfolios aufgrund sinkender Erträge im Softwaregeschäft darstellen. Tatsächlich aber wird dadurch vor allem die Verwendung von Microsoft-spezifischer Softwarestandards gefördert. Alle diese Dienste sind zwar auch mit Netscape zu benutzen, jedoch nur mit deutlich verringerter Funktionalität, worauf der Anwender auch durch diverse Bildschirmmeldungen aufmerksam gemacht wird. Erst seit kurzem verfolgt Netscape mit seinem „Netcenter“, einem Nachrichten- und Informationsdienst, eine ähnliche Strategie und optimierte ihn für die Benutzung mit dem Navigator.

Um die Akzeptanz der breiten Anwenderschaft zu gewinnen, ist es hilfreich, zunächst die in Abschnitt 2.7.3.2 identifizierten Lead User zu überzeugen. Sowohl Netscape als auch Microsoft ergreifen verschieden Maßnahmen, die darauf abzielen, die Entwickler auf ihre Technologie einzuschwören. Für die Autoren von Webseiten gründete Microsoft das ”Site Builder Network” (SBN). Mitglied kann werden, wer ein ”best experienced with Microsoft Internet Explorer” Logo nebst Link zur IE Homepage auf seiner Webseite plaziert. Dadurch sollen Anwender, die mit dem Netscape Navigator surfen, verunsichert werden. Als Anreiz dafür winken CD-Roms voller Software, „Members only Download Areas”, vergünstigte Zeitungs­abonnements und Messetickets sowie kostenloser Telephonsupport bei allen Fragen rund um die Webseitengestaltung. Wird noch ein ”ActiveX” Element - Microsofts Antwort auf Java - auf der Seite hinzugefügt, steigt man zum SBN Level 2 auf und erhält weitere Vorzüge. SBN Level 3 schließlich ist den professionellen Anbietern von WWW Lösungen vorbehalten, die auf mindestens 25% ihrer Seiten ActiveX X und andere Microsoft spezifische Technologien verwenden. Auf diese Weise wird die Verbreitung der Microsoft spezifischen Funktionen gefördert.[191]

Netscape lockt freie Softwareentwickler mit Ruhm und Ehre. Als Reaktion auf den fallenden Marktanteil des Navigators entschloß man sich im Februar 1998 nicht nur zum vorhersehbaren Schritt, den Browser wieder kostenlos anzubieten sondern man gab den kompletten Quellcode[192] der nächsten Version Navigator 5.0 frei. Entwickler werden ermutigt, sich den Code von www.mozilla.org herunterzuladen um dann selbständig Modifikationen daran vorzunehmen. Besonders gelungene Varianten sollen dann Einzug in die nächste offizielle Version halten.

Eine in Fachkreisen sehr unbeliebte Methode ist es, mit verfrühten oder unrichtigen Ankündigungen von kommenden Produkten zu arbeiten. Diese noch nicht vorhandene Software wird als „Vaporware“ bezeichnet.[193] Die Ankündigung von Produkten geschieht meist lange vor der eigentlichen Verfügbarkeit, die immer wieder wegen angeblich kurzfristig aufgetretener, technischer Probleme hinausgeschoben wird. Dadurch sollen potentielle Kunden der bestehenden Technologie verunsichert werden mit dem Effekt, daß sie mit ihrer Übernahmeentscheidung bis zur Verfügbarkeit des angekündigten Produktes warten. Dies funktioniert am besten bei namhaften Herstellern die einen Startup aushebeln wollen. Für den Kunden stellt sich durch die Ankündigung die Frage, warum er sich für das Produkt eines unbedeutenden Herstellers entscheiden soll, wenn der Marktführer „in Kürze“ etwas Vergleichbare auf den Markt bringt. Ein Beispiel ist „Wolfpack“. Diese Clusterlösung[194] für Windows NT wurde schon 1995 angekündigt, die endgültige Version wird aber frühestens 1999 mit NT5 auf den Markt kommen.[195]

4.3.5   Machtpolitik

4.3.5.1       Allianzen

Zur Etablierung eines Standards existieren auch einige Mittel, die nicht direkt auf die Steigerung der Kundenakzeptanz abzielen, sondern eher in den Bereich der Politik fallen.

Ein scheinbar übermächtiger Gegner motiviert selbst Konkurrenten dazu, Allianzen zu schließen, um so vielleicht gemeinsam die Chancen zu erhöhen. Im Falle der EDV Branche wird der Markt seit Mitte der 80er Jahre von der sogenannten WinTel (Windows + Intel) Allianz beherrscht. Sie ist jedoch weniger eine offizielle Allianz als eine natürliche Symbiose der beiden größten Gewinner aus der PC Standardisierung, die sich von ehemaligen IBM Zulieferern zu Monopolisten entwickelt haben. Die Tatsache, daß in etwa gleichmäßigen Abständen Microsoft Programme auf den Markt kommen, deren neue Funktionalität nur mit den ebenfalls neusten Intel Prozessoren auszuschöpfen ist,[196] nährt eine „Verschwörungstheorie“ über Microsoft und Intel. Um sie zu beweisen, müßte man lediglich Programme mit einer Funktionalität, die allen Ansprüchen gerecht wird, aber trotzdem auch auf alter Hardware läuft, erstellen.

Um diese Marktdominanz zu brechen formierte sich Mitte 1995 ein Bündnis um den Datenbankanbieter Oracle, dessen Ziel die Etablierung des NC ist. Zu den ersten Verabschiedern des „NC Reference Profile 1“ gehörten 1996 außerdem noch Apple, Sun, IBM und Netscape. Im Sommer 1996 kamen weitere 100 Unternehmen dazu.[197]

Den Gegenmaßnahmen von Microsoft, die darauf abzielen den Java Standard an Windows zu binden, wurde mit der ”100% pure Java initiative” begegnet, um zu garantieren, daß jede Java Anwendung die das Gütesiegel trägt auf jeder Java Maschine ausgeführt werden kann. Zumindest Apple scheint wieder aus der Allianz auszuscheren, wobei ein Zusammenhang mit Bill Gates‘ 1997 getätigten Investment von US$ 250 Mio. nicht auszuschließen ist.

4.3.5.2       Standardisierung durch ein Gremium

Waren die offiziellen Standardgremien zu Zeiten des Netscape Monopols noch bedeutungslos, kommt ihnen jetzt eine Art Schiedsrichterrolle zu. Microsoft und Netscape sind inzwischen dazu übergegangen, ihre Unterstützung für W3C Standards zu beteuern. Dies mag wohl auch auf den wachsenden Unmut der Anwender über inkompatibele Produkte zurückzuführen sein, die zuletzt zur „interoperability pledge“ führte, einer Petition für allgemeingültige Internet Standards, deren 35.000 virtuelle Unterschriften beiden Rivalen vorgelegt wurden.

Die Bewegung „anybrowser“ appelliert an Webseiten Entwickler, nur solche Gestaltungselemente einzusetzen die wirklich mit jedem gängigen Webbrowser dargestellt werden können (entsprechend Abschnitt Y-Z in Abbildung 7). Solche Seiten dürfen sich dann mit einem „best viewed with any Browser“ Logo schmücken, ähnlich den jeweiligen Navigator und IE Pendants.

Sun versucht derzeit, Java als offiziellen Standard bei der ISO absegnen zu lassen. Der erste Antrag dazu wurde zunächst abgelehnt, da andere ISO Mitglieder wie zum Beispiel Apple oder Microsoft Bedenken gegen einen Standard, der von nur einer Firma verwaltet wird, angemeldet hatten. In zweiter Instanz setzte sich Sun allerdings durch. Die genauen Konsequenzen des noch nicht abgeschlossenen Verfahrens sind noch nicht bekannt.

4.3.5.3       Rechtsweg

Einige der genannten Strategien stehen im Verdacht, dem freien Wettbewerb und somit auch dem Kunden zu schaden. Der Netzwerkeffekt ist isoliert betrachtet schon „unfair“, weil dadurch die belohnt werden, die sowieso schon erfolgreich sind. Ökonomen und Juristen können sich nun streiten, ob dadurch Handlungsbedarf entsteht. Falls Maßnahmen gegen Unternehmen ergriffen werden, stärken diese zwangsläufig die Position der ansonsten unterlegenen, weshalb diese berechtigtes Interesse an solchen rechtlichen Schritten haben. Dies kann durch direkte Klage geschehen, beispielsweise wegen unlauterem Wettbewerb, Verletzung des Urheberrechtes oder Vertragsbruch, oder indirekt durch Beeinflussung der staatlichen Gerichtsbarkeit. Durch die wirtschaftliche Bedeutung die einige der US Unternehmen der EDV Branche in ihrem jeweiligen Bundesstaat haben, sind dazu auch gerne die eigenen Senatoren bereit.

Die für die Internet Standardisierung wichtigste direkte Klage der letzten Zeit wurde von Sun eingereicht. Sie wirft Microsoft Vertragsbruch bezüglich der Java Lizenz vor. Die Microsoft Version der Java Virtual Machine enthält nicht alle in der von Sun herausgegebenen Java 1.1 Spezifikation vorgesehen Funktionen, dafür aber eine Anzahl neuer, Windows spezifische Befehle, letztere aus den in Abschnitt 4.3.1.2 genannten Gründen. Durch eine einstweilige Verfügung erreichte Sun, daß dem IE4 das Java Logo entzogen wurde. Der Versuch, die Auslieferung von Windows 98, welches dieselbe JVM wie der IE4 enthält, zu verhindern schlug jedoch fehl. Die endgültige Entscheidung steht noch aus. Im Laufe des Streites stellte Microsoft die Frage in den Raum, warum Netscape, dessen aktueller Browser ebenfalls nicht die Java 1.1 Spezifikation sondern nur die ältere 1.0 unterstützte nicht ebenfalls verklagt wurde. Eine Woche später entfernte Netscape freiwillig das Java Logo.[198]

Weitaus mehr Aufsehen erzeugt die Auseinandersetzung des amerikanischen Justizministeriums mit Microsoft. Kartellklagen gegen Microsoft hat es gegeben seitdem die Firma den PC Markt dominiert. Die aktuelle Eskalation wird inzwischen in einem Atemzug mit dem Verfahren gegen Rockefellers „Standard Oil“ Anfang des Jahrhunderts genannt. Ferguson und Morris schrieben schon 1993 dazu: „Wie diese Geschichte auch immer ausgehen wird, eines läßt sich jedoch mit Sicherheit sagen: das Justizministerium wird Microsoft die nächsten zehn Jahre schikanieren, ohne je eine Lösung des Falls zu erreichen, zum Schaden aller außer den Anwälten“.[199] Ein ähnliches Verfahren gegen IBM wurde 1992 nach 19 Jahren und 200 Millionen Dollar Gerichtskosten aufgegeben.[200]

In die Schußlinie geriet Microsoft Ende 1997, kurz nachdem der IE4 signifikante Erfolge gegen Netscape beim Kampf um Marktanteile feierte. Angestoßen wurde das Verfahren durch PC Hersteller, die sich beschwerten, daß Microsoft ihnen per Lizenzvertrag verbiete, Windows 95 ohne den IE auf neuen Rechnern vor zu installieren. Dies stelle eine Verletzung des 1995 zwischen Microsoft und dem DOJ geschlossenem „Consent Decree“ dar, der es verbot, die Lizensierung des für Hardwarehersteller lebensnotwendigen Windows Betriebsystems an die Abnahme anderer Microsoft Programme zu koppeln. Die Microsoft Sichtweise besagt jedoch das der IE kein eigenständiges Produkt darstellt, sondern lediglich eine kostenlose Erweiterung von Windows um integrierte Internet Funktionen. Es entbrannte eine andauernde Diskussion um die Grenzziehung zwischen Bundling und Integration. Letztere ist Microsoft durch den Consent Decree nämlich ausdrücklich gestattet. Eine einstweilige Verfügung zwang Microsoft Anfang 1998 dazu PC Herstellern wahlweise eine Windows Version ohne Browser[201] zur Verfügung zu stellen. Eine weitere, vom DOJ angestrebte Verfügung gegen die Auslieferung von Windows 98, welches den IE untrennbar integriert hat, kam nicht zustande, ebensowenig eine außergerichtliche Einigung, bei der Microsoft sich verpflichten sollte, den Netscape Navigator jedem Windows Betriebssystem beizulegen. Stadt dessen reichte das DOJ am 18. Mai 1998 zusammen mit 20 Bundesstaaten eine wesentlich breiter angelegte Kartellklage ein, bei der es auch um Microsofts Monopolstellung bei den Büroanwendungen geht, und dessen theoretischer Ausgang sogar eine Zerschlagung in mehrere Teilfirmen, analog der Aufteilung von AT&T, sein könnte.[202] Der Ausgang des Prozesses, der im September 1998 beginnt, wird sich nachhaltig auf die ganze Informationsindustrie auswirken, in dem er regelt, inwiefern zukünftig Regierungen oder der Markt die Merkmale eines Produktes bestimmen.

5         Fazit

Es wurde gezeigt, daß die Dominanz im schnellebigen Geschäft mit Internetprodukten wesentlich von der Fähigkeit einer Firma abhängt, die Bildung von Standards zu ihrem Vorteil zu beeinflussen. Die besondere Schwierigkeit liegt darin, nicht nur gegen die Konkurrenz arbeiten zu müssen sondern auch gegen die Kunden.

Erst das Aufdecken dar dazu nötigen Strategien ermöglicht es, einem die heutige Marktstruktur nicht nur zu verstehen sondern auch erklären zu können.

Aussagen darüber, ob diese Marktergebnisse den bestmöglichen Zustand für die Allgemeinheit darstellen oder die ungleiche Verteilung von Macht und Kapital weiter vorantreiben, sind schwierig, weshalb die anstehenden Entscheidungen im Verfahren gegen Microsoft mit solch großer Spannung erwartet werden. Ist es, wie Josef Joffe in der Süddeutschen Zeitung urteilte ein „absurdes Verlangen“, eine Firma zu zwingen etwas nicht anzubieten[203] oder die letze Chance die segensreichen Kräfte des freien Wettbewerbs zu erhalten.

Wirft man alle moralische Bedenken über Bord, kann man sich einer gewissen Bewunderung gegenüber Microsoft nicht erwehren. Keine Firma versteht es so geschickt mit den hier identifizierten Mechanismen zu spielen. Dies erklärt auch die bemerkenswert hohe Anzahl an Praxisbeispielen in dieser Arbeit, die sich auf Microsoft beziehen, da viele Strategien erst durch sie entwickelt wurden oder ausschließlich von Microsoft eingesetzt werde. und mittels aller genannten Mittel seine Dominanz nicht nur zu halten sondern noch auszubauen. Im Prinzip handelt es sich um ein Unternehmen, das nur eine Produkt vermarktet - die Microsoft Architektur. Die Aktivitäten auf anderen Geschäftsfeldern werden oft als Differenzierung mißinterpretiert, dienen aber nur dem einen Zweck, sich selbst unersetzlich zu machen. Die Firmen die dadurch auf der Stecke bleiben sind dabei nicht die Opfer von Mord sondern von Notwehr denn der kleinste Fehler kann in dieser Industrie tödlich sein und ein scheinbar unzerstörbares Monopol durch eine Neues, beispielsweise von Sun ersetzen, oder wie Joffe treffend schreibt: „Der Kaiser von heute könnte schon morgen ganz nackt sein“.[204]

Die Stärke des Internet ist jedoch eben die Loslösung von althergebrachten Einschränkungen, weshalb mittelfristig nur unabhängige Standards bestehen werden. Die höhere Leistungsfähigkeit, die heute noch für monolythische Lösungen spricht, wird angesichts des Wachstums der Leistungsreserven der bald irrelevant sein. Den geht die Auseinandersetzung in die nächste Runde, um die Dominanz über das „Next Big Thing“ nach dem Internet. Egal ob es elektronische Simultanübersetzer, Holoprojektoren, Bioimplantate oder Geräte zur Gedankenübertragung sind. Auch beim „Beamen“ von Ort zu Ort wird es wichtig sein, daß beide Seiten kompatibel sind.

Literaturverzeichnis

 

Adam, Dietrich (1990): Produktionspolitik, 6. Auflage, Wiesbaden.

Bacherach, Samuel B. (1989): Organizational Theories: Some Criteria for Evaluation, in: Academy of Management Review, Vol. 14 Ni. 4,
S. 496-515.

Backhaus, Klaus / Droege, W. / Weiber, R. (Hrsg.) (1993): Strategien für Investitionsgütermärkte - Antworten auf neue Herausforderungen, Landsberg am Lech.

Backhaus, Klaus / Späth, G.-M. (1994): Herausforderungen systemtechnologischer Vertrauensgüter an das Marketing-Management, in: Zahn, E. (Hrsg.): Technologiemanagement und Technologien für das Management, S. 19-30, Stuttgart.

Backhaus, Klaus / Weiber, Rolf (1988): Technologieintegration und Marketing, in: Arbeitspapier des Instituts für Anlagen und Systemtechnologie, Nr. 10, Münster.

Bager, Jo (1997): Die Redmond - Strategie, in: c’t Magazin für Computer Technik, 14/1997, S. 88-92, Hannover.

Batinic, Bernad et al. (1997): Frauen im Internet, in: Stengel M. (Hrsg.): Folgenlos Extra - Internet, S. 70-75, Augsburg.

Baum, Heinz-Georg / Coenenberg, Adolf G. (1992): Strategische Controlling, 1. unveränderter Nachdruck, Stuttgart.

Beinlich, Georg / Weiber, Rolf (1994): Die Bedeutung der Geschäftsbeziehung im Systemgeschäft, in: Marketing Management, S. 120-127.

Berlyne, D. E. (1960): Conflict Arousal, and Curiosity, New York.

Böcker, Franz (1986): Präferenzforschung als Mittel marktorientierter Unternehmensführung, in: Schmalenbachs Zeitschrift für betriebswirtschaftliche Forschung, 38. Jg., S. 543-574.

Böcker, Franz (1994): Marketing, 5. Auflage, Stuttgart.

Böcker, Jens / Goette, Thomas (1994): Das Systemgeschäft folgt eigenen Regeln, in: Harvard Business Manager, 2/94, S. 116-124.

Burrows, Peter / Hamm, Steve, Hof, Robert D. (1997): Behind the Brawl over Java, in: Business Week , October 10, 1997, e. D.: www.businessweek.com/1997/42/b3549054.htm, zuletzt besucht am: 14.11.97.

Corcoran, Cate T. (1997): How Web Standards are made, in: CNET, e. D.: cnet.com/content/features/dlife/inside/?dd, zuletzt besucht am: 30.10.97.

Cortese, Amy et. al. (1998): What to do about Microsoft, in: Business Week, 12.04.98, 1997, e. D.: www.businessweek.com/1998/04/, zuletzt besucht am: 07.06.98.

Coy, Peter / Gross, Neil (1995): Standards Cowboys VS. Committees, in: Business Week , 04.10.95, e. D.: www.businessweek.com/1995/10/, zuletzt besucht: 07.06.98.

Darby, M. R. / Karni, E. (1973): Free Competition and the optimal Amount of Fraud, in: Journal of Law and Economics, 16 (1973), S. 67-88.

DIN, o.V. (1998): DIN Porträt, in: DIN Homepage, e. D.: www.din.de/dframes/de/din.portraet/was_ist_din.htm, zuletzt besucht am: 22.05.97.

Duden, o.V. (1960): Duden Fremdwörterbuch, in: Der Große Duden, Band 5, Mannheim.

Eckardt, Klaus-Jürgen / Nowak, Robert (1998): Standard Architekturen für Rechnerkommunikation, in: Handbuch der Informatik, Band 7.1, München, Wien.

Elßer, Stefan (1993): Unternehmensstrategien im Technologiewettbewerb und ihre wettbewerbspolitische Bedeutung, in: Wirtschaft und Wettbewerb, 43. H. 9. , S. 723-733, Düsseldorf.

Ferguson, Charles H. / Morris, Charles R. (1994): Computerschlachten: Überlebensstrategie in der weltweit wichtigsten Industrie, Frankfurt/Main.

Gabel, H. L. (1993): Produktstandardisierung als Wettbewerbsstrategie, London.

Gierl, Heribert (1995): Marketing, Stuttgart, Berlin, Köln.

Glanz, Axel (1994): Standardisierung in der Computerindustrie, in: Panther, Stephan (Hrsg.): Homo Oekonomicus, XI (3), S. 349-418, München.

Haug, Nikola / Reinhardt, Joachim (1996): Von den Fackeln der Antike zu den Bits und Bytes der Informationsgesellschaft: Telekommunikation als Koevolution von Technik und Gesellschaft, in: Schäfer, Gabriele / Stengel, Martin (Hrsg.): Vollgas auf der Datenautobahn, S. 9-31, Landsberg am Lech.

Hippel, Eric von (1986): Lead Users: A Source of Novel Product Concepts, in: Management Science, Vol. 32 No.7, S. 791, New York.

Hof, Robert D. (1997): Netspeed at Netscape, in: Business Week, 02.10.97, e. D.: www.businessweek.com/1997/06/b35131.htm, zuletzt besucht am: 07.06.98.

Huber, Stefan (1997): Die Theorie sozialer Systeme und das Internet, in: Stengel, Martin (Hrsg.): Folgenlos Extra - Internet, S. 15-33,
Augsburg.

Hungenberg, Harald / Meffert, Jürgen P. H. (1995): Computermarkt im Wandel: die Bedeutung "offener Systeme": eine empirische Studie des Kundenverhaltens, in: Die Betriebswirtschaft, 55 4, S. 453-464.

IETF, o.V. (1998): Overview of the IETF, in: IETF Homepage, e. D.: www.ietf.org/overview.html, zuletzt besucht am: 02.06.98.

ISO, o.V. (1997): Stages of the development of International Standards, in: ISO Homepage, e. D.: www.iso.ch/infoe/proc.html, zuletzt besucht am: 22.05.97.

ISO, o.V. (1998): Introduction to ISO, in: ISO Homepage, e. D.: www.iso.ch/infoe/intro.html, zuletzt besucht am: 23.05.98.

Jeltem, Harmen (1994): Computerstandards und die Theorie öffentlicher Güter, Wiesbaden.

Joffe, Josef (1998): Drachenkampf im Computerland, in: Süddeutsche Zeitung, 19.05.1998, S. 4, München.

K. Schmidt, Susanne / Werle, Raymund (1994): Die Entwicklung von Kompatibilitätsstandards in der Telekommunikation, in: Panther, Stephan (Hrsg.): Homo Oekonomicus, XI (3), S. 339-352, München.

Kaas, Klaus Peter (1991): Marktinformationen: Screening und Signaling unter Partnern und Rivalen, in: Zeitschrift für Betriebswirtschaftslehre, 61 J. (1991), H.3, S. 357-369.

Kleinaltenkamp, Michael (1987): Die Bedeutung von Produktstandards für eine dynamische Ausrichtung strategischer Planungskonzepte, in: Strategische Planung, Band 3, S. 1-16, Heidelberg.

Kleinemeyer, Jens (1997): Standardisierung zwischen Kooperation und Wettbewerb, in: Webseite der Universität der Bundeswehr Hamburg - Veröffentlichungen und Arbeitspapiere, e. D.: www.unibw‑hamburg.de/mweb/nif/jk/zusammen.htm, zuletzt besucht am: 23.04.98.

Klußmann, Niels (1997): Lexikon der Kommunikations- und Informationstechnik, Heidelberg.

Köhntopp, Kristian (1996): Wer beherrscht das Internet?, in: Die Netzrevolution - auf dem Weg in die Weltgesellschaft, Frankfurt a. M..

Kuri, Jürgen (1998): Mehr als Schall und Rauch - Transatlantischer Streit um die Domain Namen im Internet, in: c’t Magazin für Computer Technik, 12/1998, S. 40-41, Hannover.

Leyden, Peter / Schwartz, Peter (1997): The Long Boom: A History of the Future, 1980 - 2020, in: Wired, Issue 5.07 - July 1997, e. D.: www.wired.com/wired/5.07/longboom.html, zuletzt besucht am: 01.04.98.

McAlister, L., Pessemier, E. (1982): Variety Seeking Behavior: An Interdisciplinary Review, in: Journal of Consumer Research, Vol. 9, December 1982, S. 311-322

Meyer, Egbert (1998): Redmonds Heiliger Krieg, in: c’t Magazin für Computer Technik, 12/1998, S. 22-24, Hannover.

Model, Otto (1979): Staatsbürgertaschenbuch, 18. Auflage, München.

Needleman, Rafe (1998): Microsoft's smartest move ever, in: CNET, 1/19/98, e. D.: cnet.com/content/voices/needleman/011998/ss01-html, zuletzt besucht am: 15.04.98.

O.V. (1997): Typologie der Wünsche - Intermedia: Sozialstruktur der Online-Nutzer, in: Focus-Online, e. D.: focus.de/D/DD/DD36/DD36F/dd36f.htm, zuletzt besucht am: 07.06.98.

O.V. (1998): Microsoft Announces Strong Quarterly Profits, in: Microsoft Website, Redmond, e. D.: microsoft.com/msft/html/earnq398.htm, zuletzt besucht am: 06.06.98.

O.V. (1998a): America Online Inc. Acquires Mirabilis LTD and its ICQ Instant Communications and Chat Technology, in: ICQ Webseite, e. D.: www.icq.com/press_release26.html, zuletzt besucht am: 09.06.98.

O.V. (1998b): Schluckspecht, in: PC Professionell, März 1998,
S. 16, München.

Padmanabhan, V. / Rajiv, Surendra / Srinivasan, Kannan (1997): New Products, Upgrades, and New Releases: A Rationale for Sequential Product Introduction, in: Journal of Marketing Research, Vol. XXXIV, S. 456-472.

Piper, Nikolaus (1998): Rückkehr der Kartellpolitik, in: Süddeutsche Zeitung, 22.05.98,S. 4, München.

Raju, P. S. (1980): Optimum Stimulation Level: Its Relationship to Personality, Demographics, and Exploratory Behavior, in: Journal of Consumer Research, Vol. 7, December 1980, S. 272-282

Rösiger, Martin, (1997): Telekommunikationsunternehmen auf dem Weg vom Monopol zur Konkurrenz auf Multimediamärkten, Augsburg, e. D.: www.student.uni-augsburg.de/~mymyria/kw/titel.htm, zuletzt besucht am: 07.06.98.

Salhi, Mohsen (1996): Geschichte und Entwicklung des Web, e. D.: medoc.informatik.tu-muenchen.de/html3/kap1/node2.htm, zuletzt besucht am: 23.04.98.

Saloner, Garth / Shepard, Andrea (1995): Adoption of Technologies with Network Effects: An Empirical Examination of the Adoption of Automatic Teller Machines, in: The Rand Journal of Economics. 26,S. 479-501, Santa Monica.

Schneider, K. / Schmalt, H. P. (1981): Neugier, Stuttgart.

Spence, A. Michael (1974): Market Signaling: Informational Transfer in Hiring and Related Screening Processes, Cambridge.

Sun, O.V. (1998): A Timeline of Sun's History, in: Sun Homepage, e. D.: www.sun.com/corporateoverview/who/html_history.html, zuletzt besucht am: 10.06.98.

Weiber, Rolf (1993): Die Bedeutung von Standards bei der Vermarktung von Systemtechnologien, in: Backhaus, K. / Droege, W. / Weiber, R.(Hrsg.): Strategien für Investitionsgütermärkte - Antworten auf neue Herausforderungen, S. 146-161, Landsberg am Lech.

Weiss, P. A. (1992): Die Kompetenz von Systemanbietern. Ein neuer Ansatz im Marketing für Systemanbieter, Berlin.

Williamson, S. L. (1985): Die ökonomischen Institutionen des Kapitalismus, Tübingen.

Wiswede, G. (1991): Einführung in die Wirtschaftspsychologie, München:

Zäpfl, G. (1982): Produktionswirtschaft, Operatives Produktionsmanagement, Berlin, New York.

Zeithaml, V. (1988): Consumer Perceptions of Price, Quality and Value, in: Journal of Marketing, Vol. 52, S. 2-22.

 



[1] vgl. Leyden & Schwartz (1997), e.D.

[2] vgl. Kleinaltenkamp (1987), S. 1 f

[3] vgl. Jeltem (1994), S. 1

[4] vgl. Eckardt & Nowak (1998), S. 59 f

[5] Duden (1960), S. 611

[6] vgl. Backhaus & Späth (1994), S. 20 f

[7] Zäpfel (1982), S 66 f

[8] vgl. Adam (1990), S. 37

[9] vgl. ISO (1998), e.D.

[10] vgl. Jeltem (1994), S. 2

[11] vgl. Jeltem (1994), S. 2

[12] vgl. Böcker & Goette (1994), S. 119

[13] vgl. Kleinaltenkamp (1987), S. 8

[14] vgl. Kleinaltenkamp (1987), S. 9 – Beispiele aus ebenda S. 10 und hinzugefügt durch den Autor

[15] vgl. Kleinaltenkamp (1987), S. 8 f

[16] vgl. Gabel (1993), S. 1

[17] vgl. Gabel (1993), S. 1

[18] vgl. Gabel (1993), S. 2 ff

[19] vgl. Klußmann (1997), S. 360 ff

[20] vgl. Gabel (1993), S. 2 ff

[21] vgl. Glanz (1994), S. 356

[22] vgl. Gabel (1993) S. 11 f

[23] Die Kombination 3 ist nicht relevant da es nicht möglich ist einen öffentlichen Standard einzuschränken.

[24] vgl. Gabel (1993) S. 13, modifiziert und mit Beispielen versehen durch den Autor

[25] vgl. Ebenda S. 13

[26] UNIX ist ein Betriebssystem das, ursprünglich von AT&T entwickelt, inzwischen von verschieden Herstellern für verschiedene Rechnertypen Angeboten wird.

[27] vgl. Ferguson & Morris (1994), S. 148

[28] vgl. Backhaus & Späth (1994), S. 22

[29] vgl. Backhaus (1992), S. 347ff

[30] vgl. Backhaus & Späth (1994), S. 22

[31] vgl. Beinlich & Weiber (1994), S. 308

[32] vgl. Kleinaltenkamp (1987), S. 6 f

[33] vgl. Rösiger (1997), e.D.

[34] vgl. ISO (1998), e.D.

[35] vgl. Coy & Gross (1995), e.D.

[36] Von Bedeutung sind die 16BIT Varianten Windows 3.1x, deren 32BIT Nachfolger Windows 95/98 sowie die auf den Profimarkt ausgerichteten 32BIT Systeme Windows NT 3.5x und 4.0 (NT = New Technologie)

[37] Nicht eingerechnet ist hierbei Japan, wo sich aufgrund der anderen Zeichensätzen und Tastaturen eine vollkommen unterschiedlicher Markt gebildet hat, der von drei gleichbedeutenden, zur westlichen Windows/Intel Architektur inkompatiblen Systemen beherrscht wird.

[38] vgl. Farrel & Saloner (1988), S. 236

[39] vgl. Coy & Gross (1995), e.D

[40] vgl. Lauren (1996), S. 78

[41] vgl. Klußmann (1997), S. 452f

[42] vgl. K. Schmidt & Werle (19), S. 429

[43] vgl. Farrel & Saloner (1988), S. 251

[44] vgl. Klußmann (1997), S. 335, 464,

[45] Ebenda, S. 258 f

[46] Ebenda, S. 341

[47] Aktuell verlangt die DE-NIC einmalig 240 DM und 120 DM Monatlich für eine X.de Domain.

[48] vgl. Kuri (1998), S. 40 f

[49] vgl. Klußmann (1997), S. 308 f, 386, 440

[50] Von engl. To browse = Stöbern

[51] Frames sind Unterteilung der Webseite in mehrere unabhängige Fenster

[52] z.B. sitzt Klußmann (1997), S. 274 diesem Irrtum auf

[53] Beispielsweise die „Mouse over“ Funktion, die dazu dient ein Element der Seite beim bloßen Darüberbewegen des Mauszeiger automatisch zu verändern. Gute Programmierer lassen ihre Scripte inzwischen die Browserversion abfragen und in Abhängigkeit davon zu verschiedenen Unterroutinen verzweigen.

[54] Als Download bezeichnet man eine Datenübertragung von einem entfernten Computer zum jeweiligem Computer des Anwenders. Übertragungen in die entgegengesetzte Richtung heißen Upload

[55] vgl. Klußmann (1997), S. 273 f

[56] Über den endgültigen Namen des Nachfolgers von Office97, der Ende 1998 auf den Markt kommen soll, ist noch nicht entschieden.

[57] vgl. o.V. (1998), e.D:

[58] Eines von unzähligen Beispielen ist das 1981 von IBM eingeführte „FAT“ Dateisystem von MS-DOS, daß trotz gravierender technischen Mängel wie kurze Dateinamen, und ineffektiver Speicherausnutzung auf großen Festplatten auch heute noch von aktuellen Microsoft Betriebsystemen wie Windows 98 unterstützt wird.

[59] Zusammengesetzt aus Mosaic und Godzilla, dem Japanischen Filmmonster das seitdem als Firmenmaskottchen fungiert.

[60] vgl. Hof (1997), e.D.

[61] Dies änderte sich jedoch später. Siehe Punkt 4.3.2

[62] vgl. Hof (1997), e.D.

[63] Beginners All-purpose Symbolic Instruction Code – die früher dominierende höhere Programmiersprache

[64] Der 8088 war der 8Bit Vorgänger des 8086, dem Urvater der x86 Linie, zu der auch der Pentium gehört

[65] die englische Bezeichnung „Personal Computer“ wird im Deutschen gerne falsch mit dem Personal in Verbindung gebracht. Richtig wäre „persönlicher Computer“ in Abgrenzung zum uniformen Terminal.

[66] (PC/MS) DOS = Disk Operating System. QDOS = Quick and Dirty Operating System.

[67] vgl. Bager (1997), S. 89

[68] vgl. Sun (1998), e.D.

[69] ISO (1998), e.D.

[70] vgl. Kleinemeyer (1997), e.D.

[71] Eckardt & Nowack (1998), S. 59

[72] vgl. ISO (1998), e.D.

[73] vgl. Eckardt & Nowack (1998), S. 61

[74] DIN (1998), e.D.

[75] vgl. Köhntopp (1996), e.D.

[76] vgl. Köhntopp (1996), e.D.

[77] vgl. IETF (1998), e.D.

[78] vgl. Köhntopp (1996), e.D.

[79] vgl. Salhi (1996), e.D.

[80] vgl. Corcoran (1997), e.D.

[81] vgl. Corcoran (1997), e.D.

[82] vgl. Corcoran (1997), e.D.

[83] vgl. Meffert (1993), S. 81ff

[84] Hippel (1986), S. 791

[85] Ebenda, S. 796

[86] Im Rahmen eines „Beta Tests“ wird neue Software noch vor der Markteinführung von Freiwilligen auf Fehler und wenig elegante Problemlösungen untersucht.

[87] vgl. z.B. Batinic et al. (1997), S. 72

[88] zur genaueren Funktionsweise und den soziologischen Besonderheiten des Usenet empfiehlt sich Huber (1997)

[89] vgl. o.V. (1997), e.D. Addition der Anteile über 30 Jahre durch den Autor.

[90] vgl. Model (1979), S. 831 ff

[91] Piper (1998), S. 4

[92] vgl. Klußmann (1997), S. 103

[93] zur Geschichte von Xerox PARC System siehe Ferguson & Morris (1994), S. 93ff

[94] vgl. Hungenberg & Meffert (1995), S. 456 ff

[95] vgl. Gabel (1993), S. 14 ff

[96] Das BIOS ist eine Gruppe von kleinen Programmen im ROM (Festspeicher) des PC, welche die Kommunikation des Prozessors mit dem Speicher und den Peripheriegeräten wie Festplatten oder Tastatur steuern

[97] vgl. Gabel (1993), S. 31

[98] Man unterscheidet zwischen intrinsischen Merkmalen, die nicht verändert werden können ohne das eigentliche Produkt zu ändern, und extrinsischen Merkmalen, deren Modifikation das Produkt nicht verändert. Extrinsisch ist z.B. der Preis und die Farbe eines Produktes. vgl. Gierl (1995), S. 82 ff

[99] vgl. Ferguson & Morris (1994), S. 101 ff

[100] vgl. Kleinaltenkamp (1987), S. 5

[101] Die Erfahrungskurve besagt, daß ein Hersteller bei jeder Verdoppelung seines kumulierten Outputs seine variablen Kosten um einen fixen Anteil zwischen 20 und 30 Prozent reduziert. vgl. hierzu z.B. Baum & Coenenberg (1992), S. 49 ff

[102] vgl. Gabel (1993), S. 4 f

[103] vgl. Farrel & Saloner (1988), S. 236

[104] vgl. Saloner & Shepard (1995)

[105] vgl. Gierl (1995), S. 437 ff

[106] vgl. Kleinaltenkamp (1987), S. 7

[107] Böcker & Goette (1994), S. 122

[108] vgl. Gabel (1993), S. 10

[109] vgl. Gabel (1993), S. 36 ff

[110] vgl. Ferguson & Morris (1994), S. 134

[111] vgl. Ferguson & Morris (1994), S. 129 ff

[112] vgl. Kleinaltenkamp (1987), S. 14

[113] vgl. Ferguson & Morris (1994), S. 156

[114] vgl. Kleinaltenkamp (1987), S. 14

[115] vgl. Böcker & Goette (1994), S. 124

[116] vgl. Gabel (1993), S. 3

[117] vgl. Böcker & Goette (1994), S. 19

[118] vgl. Ferguson & Morris (1994), S. 108 ff und S. 121 ff

[119] vgl. Haug & Reinhardt (1996), S. 11

[120] vgl. Ferguson & Morris (1994), S. 139

[121] Marketing versteht sich hier gemäß der Definition von Gierl (1995), S. 5, als jeglicher Umgang mit Mitmenschen, welcher diese ohne Zwang zu einem bestimmten Verhalten veranlassen soll, daß man den Marketing Treibenden als vorteilhaft bewerten kann.

[122] vgl. Gierl (1995), S. 35 ff

[123] vgl. Klußmann (1997), S. 322

[124] Moores Law läßt sich gut anhand der halbjährlichen PC Sonderangebote der Supermarktkette Aldi verfolgen. Bei konstantem Preis von 2000 DM verbesserte sich das Angebot von einem Cyrix 5x86 100 MHz System über einen Cyrix 6x86 120 MHz, zu einem Intel Pentium MMX 166MHz im Herbst 1997 bis zu einem Intel Pentium II 266 MHz im Mai 1998.

[125] Die Hardware Mindestanforderungen von Windows 3.0 waren ein 286er mit 2MB, Windows 3.11: 386 mit 4MB, Windows 95: 486 mit 16MB. Windows NT 5.0 wird zum zügigen Arbeiten einen Pentium Rechner mit 200 MHz und 64 MB Arbeitsspeicher benötigen.

[126] „What you see is what you get“: die Bildschirmdarstellung während der Texteingabe entspricht dem Späteren Druckbild. Verfügbar seit MS Word 5.5 und WinWord 1.0

[127] Mehrere Programme werden parallel ausgeführt, verfügbar seit Windows 95 und NT

[128] vgl. Backhaus & Späth (1994), S. 26

[129] vgl. Kaas (1991), S. 358

[130] vgl. Backhaus & Späth (1994), S. 23 f

[131] vgl. Backhaus & Späth (1994), S. 25 f

[132] vgl. Backhaus & Droege & Weiber (1993), S. 104

[133] vgl. Beinlich & Weiber (1994), S. 122

[134] vgl. Weis (1992), S. 165ff

[135] vgl. Zeithaml (1988) S. 9

[136] Signale werden oft als Spence Signale bezeichnet; nach Spence (1974)

[137] vgl. Backhaus & Späth (1994), S. 26

[138] vgl. Kleinaltenkamp (1987), S. 1 ff

[139] vgl. Backhaus & Späth (1994), S. 32

[140] vgl. Backhaus & Weiber (1988), S. 31

[141] vgl. Gierl (1995), S. 271

[142] vgl. Gierl (1995), S. 271

[143] vgl. Beinlich & Weiber (1994), S. 124

[144] vgl. Darby & Karni (1973), S 69 ff

[145] vgl. Beinlich & Weiber (1994), S. 124

[146] vgl. Kleinaltenkamp (1987), S. 5

[147] vgl. Berlyne (1960), S. 80

[148] vgl. Schmalt & Schneider (1981), S. 103

[149] vgl. Wiswede (1991), S. 63 f

[150] vgl. McAlister & Pesse­mier (1982), S. 318

[151] vgl. Raju (1980), S. 274 ff

[152] vgl. Böcker (1994), S. 51

[153] vgl. Backhaus & Droege & Weiber (1993), S. 58

[154] vgl. Böcker (1986), S. 543

[155] vgl. Beinlich & Weiber (1994), S. 125

[156] Von Januar 1996 bis Dezember 1997 akquirierte allein Microsoft 15 Startups, darunter Hotmail und WebTV, vgl. o.V. (1998b), S. 16

[157] Die Installationsdatei von Opera paßt mit ca. 1 MB Größe auf eine Diskette, während typische Navigator oder IE Dateien 8-30 MB groß sind.

[158] vgl. K. Schmidt & Werle (1994), S. 424 f

[159] vgl. Williamson (1985)

[160] vgl. Kleinaltenkamp (1987), S. 12

[161] vgl. Kleinaltenkamp (1987), S. 12

[162] vgl. Kleinaltenkamp (1987), S.12

[163] vgl. Kleinaltenkamp (1987), S. 11

[164] vgl. Kleinaltenkamp (1987), S. 13

[165] aus dem „Windows 98 Betaguide“ – nicht öffentlich verfügbar.

[166] z.B. Gierl (1995), S. 410

[167] Product, Price, Place, Publicity

[168] Man spricht von sogenannten Reduced Instruktion Code (RISC). RISC CPUs sind durch die schnelle Ausführung von vergleichsweise wenig Befehlen wesentlich effizienter als herkömmliche Complex Instruction Code (CISC) Prozessoren wie der Intel Pentium.

[169] vgl. Gabel (199), S. 3

[170] vgl. Weiber (1993), S. 153 / 155

[171] vgl. Meyer (1998), S. 22

[172] Ebenda, S. 24

[173] vgl. Elßler (1993), S. 725 f

[174] Der Explorer löste in Windows 95 und NT 4.0 den Programmanager und den Dateimanager ab. Er dient zum schnellen Starten von Programmen sowie zur Navigation durch Verzeichnisse und Dateien auf der Festplatte.

[175] vgl. Needleman (1998), e.D.

[176] vgl. Meyer (1998), S. 22 f

[177] Durch ein „Update“ wird die vorhanden Version einer Software auf die aktuelle Version aktualisiert. Updates sind werden entweder kostenlos oder zu einem Teil des Neupreises angeboten

[178] vgl. Padmanabhan et. al. (1997), S. 456 ff

[179] vgl. Ferguson & Morris (1994), S. 68

[180] Eine Bookmark (engl. für Lesezeichen) dienen dazu ein persönliches Verzeichnis häufig besuchter Webseiten anzulegen, um diese nicht jedesmal per Hand eingeben zu müssen.

[181] vgl. Böcker & Goette (1994), S. 122

[182] vgl. K. Schmidt & Werle (19), S. 427

[183] vgl. o.V. (1998a), e.D.

[184] vgl. Elßler (1993), S. 728 f

[185] vgl. Bager (1997), S. 90

[186] vgl. Glanz (1994), S. 374 ff

[187] „Push“ bezeichnet die automatische Übertragung von Inhalten zum Anwender, im Gegensatz zum „Pull“ Verfahren bei dem der Anwender die Information gezielt abruft.

[188] vgl. Backhaus & Späth (1994), S. 31

[189] vgl. Beinlich & Weiber (1994), S. 126

[190] vgl. Meyer (1998), S. 22

[191] vgl. Bager (1997), S. 90

[192] Der Quellcode ist das eigentliche Programm in Form einer höheren Programmiersprache wie C. Um das Programm zu verwenden, muß er in Maschinensprache compiliert werden.

[193] Kunstwort aus den englischen Begriffen für Dunst und Ware

[194] Durch Clusterung soll die Schwäche von NT bei sehr großen Netzwerken behoben werden. Es gibt sowohl Lösungen von Drittherstellern als auch komplette Alternativen zu NT mit eben dieser Fähigkeit

[195] vgl. Bager (1997) S. 89

[196] „Chrome“ der nächste MS Standard für 3D Grafik in Webseiten verlangt als unterste Hardwareausstattung einen Intel Pentium II - 400 MHz mit 8MB Grafikkarte nach dem Intel AGP Standard – möglicherweise dem „Aldi PC“ von 1999 entsprechend.

[197] vgl. Klußmann (1997), S. 335

[198]vgl. Burrows & Hamm & Hof (1997), e.D.

[199] Ferguson & Morris (1994), S. 261

[200] vgl. Joffe (1998), S. 4

[201] Tatsächlich ist bei dieser Version der IE nur versteckt. Die Mehrzahl seiner Module ließe sich nicht mehr aus Windows entfernen ohne dessen Zusammenarbeit mit anderer Internet Software, inklusive Netscape zu beeinträchtigen.

[202] vgl. Cortese et al. (1998), e.D.

[203] Vgl. Joffe (1998), S. 4

[204] Ebenda

  
Bürgerliches Gesetzbuch BGB: mit Allgemeinem Gleichbehandlungsgesetz, BeurkundungsG, BGB-Informationspflichten-Verordnung, Einführungsgesetz, ... Rechtsstand: 1. August 2012
Siehe auch:
Handelsgesetzbuch HGB: ohne Seehandelsrecht, mit …
Strafgesetzbuch StGB: mit Einführungsgesetz, …
Grundgesetz GG: Menschenrechtskonvention, …
Arbeitsgesetze
Basistexte Öffentliches Recht: Rechtsstand: 1. …
Aktiengesetz · GmbH-Gesetz: mit …
 
   
 
     

This web site is a part of the project ScientificPublication.com.
We are grateful to Fabian Nappenbach for contributing this diploma thesis.

Back to the topic site:
ScientificPublication.com/Startseite/Informatik

External Links to this site are permitted without prior consent.
   
  deutsch  |  Set bookmark  |  Send a friend a link  |  Copyright ©  |  Impressum