Trends und Themen der CeBIT 2004
Autonome und flexible Systemarchitekturen – Prozessmanagement und Kostenmanagement – Mobile Infrastrukturen
Über drei Jahre besaß Kostenreduzierung oberste Priorität bei den professionellen Anwendern von Informations- und Telekommunikationstechnik. Durch die positiven Konjunkturaussichten und die Erhöhung der IT-Budgets sowie den aufgebauten Investitions- und Innovationsdruck stehen für 2004 wieder zahlreiche interessante Projekte an. Vor diesem Hintergrund unterstreicht die CeBIT 2004 ihren Charakter als weltweit bedeutendste Trendmesse und Informationsplattform. Die kommende CeBIT findet vom 18. bis 24. März statt.
Als strategische Herausforderungen der nächsten drei Jahre gelten autonome und flexible Systemarchitekturen, die Verknüpfung operativer Geschäftsabläufe mit der Unternehmensführung im Sinne des Prozessmanagements, die digitale Fabrik, Kostenmanagement und mobile Infrastrukturen – von lokalen drahtlosen Netzwerken (WLAN) bis zu internationalen Collaboration-Konzepten auf Basis des Internet Protocol (IP).
Top-Themen sind auch Sicherheit, die über die Verfügbarkeit von Informationen entscheidet und damit unternehmenskritisch geworden ist, und E-Government, das nicht nur die öffentliche Verwaltung modernisiert und von bürokratischen Verkrustungen befreit, sondern den Unternehmen auch Kosten spart. Die EU-Kommission hat analysiert, dass jeder Euro, den die öffentliche Hand in IT investiert, eine Rendite von 1,80 Euro erbringt.
Das im vergangenen Jahr zum Hype-Thema aufgewertete On-demand-Computing fordert als fundamentaler Architekturwechsel konzeptionelles Denken ein. Die großen IT- und Servicekonzerne arbeiten an Komponenten, die Computern und Speichern die Fähigkeit zur Selbstheilung sowie -konfiguration und -optimierung verleihen. Indem diese stabilen IT-Ressourcen virtualisiert werden, sind sie von allen Anwendungen nutzbar – die Systemauslastung steigt. Durch die enge Koppelung an die Unternehmensprozesse reagieren sie flexibel auf die Geschäftsbedürfnisse – Ressourcen schalten sich nach Bedarf (on demand) automatisch zu oder werden von externen Anbietern zugekauft.
Auf der CeBIT 2004 stehen die technischen Grundlagen – Marktforscher sprechen von Adaptive-, Utility-Computing oder Organic-IT – für das Realtime-Unternehmen der Zukunft zur Diskussion. Der Entwurf verlangt Weichenstellungen und neue Technologien: Server- und Speicher-Virtualisierung, die Zusammenschaltung dieser Ressourcen in Grid-Netzen, die Sicherstellung der Breitbandkommunikation, die Festlegung auf wenige Betriebssysteme wie das Quellcode-offene Linux und Entwicklungs-Plattformen wie Dotnet oder J2EE. Der Architekturentwurf fordert auch fortgesetzte Anstrengungen bei der Konsolidierung und Anwendungsintegration. Letzteres verleiht zwei Standards eine höhere Wertigkeit: den für die automatische Interaktion von Programmen zuständigen Webservice und die Extended Markup Language (XML), mit der Geschäftprozesse auf unterschiedlichen Ebenen beschrieben werden.
Ein besonderes Augenmerk gilt 2004 der Forschung. Die Institute und Universitäten denken prototypisch die Zukunft voraus mit Produkten wie intelligente Textilien, Bildschirme zum Aufrollen, autarke Mikrosysteme oder digitale Lebewesen als Benutzerhilfe. Und sie beherrschen auch die Technologien, die das Privat- sowie das Berufsleben verändern. So fließen durch die Augmented Reality virtuelle Informationen in reale Umgebungen ein, die Ambient Intelligence macht das Leben leichter: Mikroskalige, drahtlos vernetzte Rechner werden in Alltagsgegenstände eingebettet und verwandeln diese in aktive Subjekte, die sich Bedürfnissen anpassen – das Haus wird komfortabler und energiesparender, die Arbeitseffizienz im Büro steigt durch aufmerksame Hintergrundintelligenz, Autos wissen über Verkehr, Straßenführung und Beschaffenheit mehr als der Fahrer, und die technischen Geräte benehmen sich durch Sprach-, Mimik- und Gestenerkennung benutzerfreundlicher.
In den folgenden drei Teilen werden konkret die Entwicklungstrends in einzelnen Ausstellungsbereichen der CeBIT 2004 beschrieben:
Teil 1: Telekommunikation und Informationstechnik
Teil 2: Computer und Speicher
Teil 3: Software, Produktion und Sicherheit
Teil 1: Telekommunikation und Informationstechnik
Telekommunikation
Die Telekommunikationsbranche optimiert den breitbandigen Zugang zu Informationen für Unterhaltung und Business. In Ballungszentren breitet sich das UMTS-Netz (Universal Mobile Telecommunications Service) für mobile Sprach- und Datendienste langsam aus. Zwar bleiben die erste und zweite Mobilfunkgeneration mit Datenübertragungsraten von 9,6 (GSM, Global System for Mobile Communication) und 115 Kilobit pro Sekunde (GPRS, General Packet Radio Services) intakt, doch die Zukunft gehört der UMTS-Infrastruktur mit Übertragungsraten von 2,5 Megabit pro Sekunde. Zwei Wachstumstreiber wachsen zusammmen: die Mobilfunk- und die Internet-Dienste – die mobilen Multimedia-Services mit Bild-, Ton-, Sprache-, Video- und Datenkomponenten nehmen Formen an.
Jenseits des beliebten Short Message Service (SMS) bereichert der Multimedia Message Service (MMS) die Privatkommunikation: Nachrichten von Handy zu Handy enthalten auch Sound, Farbgrafiken und angehängte Dateien. Grußkarten, Bildschirmschoner, Postkarten, Visitenkarten, Landkarten, Zeichentrick-Animationen, interaktive Videos oder Gesprächsaufzeichnungen fließen von einen 3G-Handy (3G = Dritte Generation) zum anderen.
Ad-hoc-Netze, die sich je nach Position des Teilnehmers ohne weitere Infrastruktur temporär aufbauen, öffnen neue Anwendungsfelder wie beispielsweise die Car-to-car-Kommunikation zwischen fahrenden Autos.
Für den regional begrenzten Zugang zu Internet und Intranet konkurrieren Bluetooth- mit den billigeren W-LANs – letztere stehen ganz oben auf der To-do-Liste der Unternehmen. Auch steigt die Zahl der öffentlichen Hotspots: Cafes, Hotels, Bahnhöfe und Flugplätze installieren zunehmend WLANs. Das Messegelände der CeBIT Hannover ist einer der größten Hotspots Europas.
Bei der Netzwerktechnik beeinflussen Trends wie Telefonieren über das Internet (Voice over IP), bessere Service Level für breitbandige Anwendungen, höhere Sicherheit, Mobilität und die neue IP-Version 6 die Aufgabenstellung. Die Sprachübertragung über das Internet-Protokoll wird durch die Einbeziehung der Standards für drahtlose Netze und schnurlose Telefonie (DECT) auch mobil. Um die Gesamtleistung von Unternehmensnetzen zu steigern, haben die Hersteller ihre Komponenten weiter verbessert. Beispielsweise vervierfachen Einschubkarten für Router den Datendurchsatz. Die Vernetzung von Hochleistungsrechnern und Cluster (Server-Verbünde) wird durch neue Standards effektiver: Der erwartete Standard für die 10-Gigabit-Ethernet-Übertragung über das Kupferkabel sieht eine maximale Distanzüberbrückung von 15 Metern vor, auf der CeBIT werden einige Hersteller die 30-Meter-Marke erreichen.
In so genannten Personal Area Networks soll künftig Ultrawideband (UWB) Übertragungraten von über 100 Megabit pro Sekunde erreichen – als Backbone von UWB-Netzen sollen selbstkonfigurierende Netze (Mesh Networking) und WLANs dienen.
Informationstechnik
Die Palette an mobilen Endgeräten für die drahtlose Kommunikation auf Basis von UMTS, GPRS, Bluetooth und Wireless LANs erweitert sich permanent – und die Funktionen konvergieren. Trotzdem lassen sich noch klare Klassen definieren wie Mobilcomputer (Notebook, PDA, Tablet-PC, Electronic Book), Kommunikationssysteme (Smartphone, Handy) und Entertainment-Geräte (Camcorder, Spielkonsolen, Digitalkamera, Audio- und Video-Player). Unbeeinflusst von der Konkurrenz durch die kommunikativen Datensysteme zeigt sich das Handy: 2003 sind laut dem Marktforschungsunternehmen IDC erstmals über eine halbe Milliarde Handys abgesetzt worden. Obligatorisch werden eingebaute Kameras und Farbdisplays.
Angesichts des PDAs mit Falttastatur, des Handys mit Navigationssystem, des Smartphones mit Touchscreen oder Linux-Betriebssystem und des leistungsstarken Subnotebooks fällt die Aufgabe nicht leicht, das für die jeweilige Anwendung geeignete Gerät auszusuchen. Abzuwägen sind dabei Funktionalität und Kosten, denn ein billiger PDA lebt kürzer als ein teures Notebook. Sind letztere mit Intels Centrino-Mobiltechnologie ausgerüstet, so ist die WLAN-Funktion ohne Zusatzkarte integriert. Sorgen bereiten bei den mobilen Computern immer noch das Daten-Backup und die Sicherheit. Für Multimedia-Anwendungen haben einige Hersteller eigene Bedienkonsolen entwickelt. Zur einfachen Bedienung der tastaturschwachen PDAs und Smartphones wird jetzt die Sprachsteuerung herangezogen.
Bei den Büro-Peripheriesystemen hält sich neben der Leistungssteigerung hinsichtlich des Outputs der Trend zu Multifunktionssystemen, die drucken, faxen, kopieren, scannen und Mails versenden. Speziell bei Druck- und Kopiersystemen sind die Kosten ins Blickfeld geraten. Nach Untersuchungen der Gartner Group gehen hier 57 Prozent der Aufwendungen in Hardwarekauf, Wartung und Verbrauchsmaterialien, der Rest sind versteckte Kosten durch Software, Management, Administration und Infrastruktur. Inzwischen erarbeiten die Hersteller spezielle Monitoring-Tools, die Output-Systeme betriebswirtschaftlich beurteilen. Trotz der technischen Ausgereiftheit der Output-Systeme entstehen immer wieder verblüffende Neuerungen: Ein spezieller Lasertoner beispielsweise lässt sich durch Erwärmung vom Papier lösen und spart so Papier.
Als Blickfang für den PC-Arbeitsplatz haben die Röhrenbildschirme endgültig ausgedient. TFT-LCD-Displays sind preiswert geworden, besitzen eine scharfe Auflösung, strahlende Helligkeit sowie verzerrungsfreie Darstellung. Außerdem verbrauchen sie weniger Strom und geben weniger Wärme ab. Bei den Standard-Flachbildschirmen steht sogar eine Preissenkung ins Haus – für Anwendungen wie Layout, Videos oder grafische Bildbearbeitung ist jedoch eine aufmerksamere Auswahl zu treffen.
Für den Heimbereich produzieren inzwischen auch Computerhersteller große Plasmabildschirme für Fernsehgeräte, die das Home-Entertainment-System drahtlos mit digitalen Bilddaten versorgen. Die Polytronik-Forschung zeigt die Darstellungsfläche der Zukunft: biegsame Displays aus Polymeren.
Das gesamte Gebiet der Peripherie bleibt innovativ, das gilt für kleine lichtstarke Digitalprojektoren ebenso wie für Kugelschreiber mit eingebauter Kamera. Als mobile Speicher etablieren sich auf Kosten der Disketten die kleinen Flash-Drives, die am Universal-Serial-Bus-Port (USB) eingesteckt werden und schon Speicherkapazitäten von bis zu zwei Gigabyte erreichen.
Teil 2: Computer und Speicher
Die über Jahresfrist um fast ein Viertel gesunkenen Preise bei Notebooks haben zur Folge, dass hier die Wachstumsraten im Vergleich zu den Desktops höher sind. Trotz dieses Mobil-Booms werden immer noch doppelt so viele Schreibtisch-PCs verkauft. Das Standard-Business-System sieht den Intel-Pentium-4-Prozessor vor, als Betriebssystem Windows XP Professional und die Office-Suite – als Alternative stehen Linux und Opensource-Büropakete parat. Gartner Group rät aus Kosten- und Infrastrukturgründen, Desktops, die vor 2000 gekauft wurden, dieses Jahr auszutauschen. Gerade bei den PCs mit Intel-Prozessor und Microsoft-Betriebssystem wird die Senkung der Betriebskosten durch intelligente Managementkonzepte angedacht.
Die Leistungsfähigkeit der Server hat sich durch die 64-Bit-Prozessoren verbessert. Die CPUs der fünf Prozessorhersteller beherrschen das Multithreading, bei dem mehrere Aufgaben parallel verarbeitet werden. Dazu geht der Trend bei den insgesamt sieben Architekturen dahin, zwei CPU-Kerne auf einen Chip zu packen. Die reine Performance hat aber als Kriterium ausgedient. Parameter sind inzwischen Partitions- und Cluster-Konzepte sowie Automatisierungstechniken wie die Komponenten zur Selbstheilung und -konfiguration, die Server sicherer und stabiler machen. Inzwischen ist auch das Standardisierungsbestreben der Anwender messbar: Erstmals übertreffen im Server-Bereich die Umsätze mit Intel-basierten Rechnern die der klassischen Unix-Systeme, denen bisher die Abarbeitung der unternehmenskritischen Anwendungen vorbehalten war. So genannte Blade-Server integrieren in einer Box relativ preiswerte Server-, Netzwerk- und Speicherressourcen und sind damit einfacher zu managen und auszubauen. Als internes Ein/Ausgabesystem kündigt sich der neue Standard PCI Express-Bus an. Die Verbindung zwischen den Systemen hält weiter Infiniband mit einer Übertragungsleistung von 2,5 bis 30 Gigabit pro Sekunde.
Neben den Microsoft-Produkten etabliert sich das Opensource-System Linux, das sich mit zunehmender Sicherheits- und Skalierfähigkeit als Alternative zu den Unix-Derivaten darstellt, die bisher die hochverfügbaren Anwendungen gesteuert haben. Zum ersten Mal hat ein Cluster aus Linux-Servern in einem Transaktionstest (TPC-C-Benchmark) eine höhere Leistung erzielt als ein Kompaktsystem – dabei hat die verteilte Rechnerarchitektur gegenüber dem symmetrischen Multiprocessing ein deutlich besseres Preis-Leistungs-Verhältnis. Auf der CeBIT 2004 wird der neue Linux-Kernel (2.6) auf den Servern laufen.
Ungebremst steigt der Speicherbedarf, was dem Markt für Plattenspeicher Zuwächse beschert. Konzentrierte sich bis vor wenigen Jahren die Technologiediskussion auf die eigentliche Hardware, so stehen heute die Speichervirtualisierung in großen Netzen und das Überwachen der Daten im Vordergrund. Der Anwender braucht sich nicht mehr den Kopf zu zerbrechen, wo die Daten vom Storage-System physikalisch abgelegt werden, wichtig ist nur, dass der entsprechende Speicherraum für die Anwendungen vorhanden ist. Die Anbieter von Speicher- und Server-Systemen bauen Portfolios für das Speichermanagement und das Information Lifecycle Management (ILM) auf. Solche ILM-Lösungen verwalten die Daten in den SAN- (Storage Area Network) und NAS-Systemen (Network Attached Storage) von der Erstellung bis zum Löschen aktiv und abhängig von den geschäftlichen Anforderungen.
Um die Plattenspeicher verschiedener Hersteller in die Netze einzubinden, schreitet auch die Standardisierung auf Systemebene fort. So adressieren die durch den Microsoft Windows Storage Server 2003 neuerdings auch Windows-basierten NAS-Lösungen die individuellen Speicherbedürfnisse von mittelständischen bis zu großen Unternehmen. Durch verbesserte Komponenten erhöht sich auch die Leistungsfähigkeit der Speichernetzwerke. So durchbrechen gerade smarte Speicher-Switches, die intelligente Dienste wie Datenreplikation oder Spiegelung ausführen, Grenzen: Lag der Durchsatz einer Virtualisierungsmaschine im Jahr 2002 im Bereich von rund 300 000 Ein/Ausgabe-Operationen pro Sekunde, so ist die Obergrenze jetzt bei sechs Millionen Operationen pro Sekunde angekommen.
Teil 3: Software, Produktion und Sicherheit
Software
Der Sektor der betriebswirtschaftlichen Geschäftsprozesssoftware ist von einer starken Konsolidierungswelle betroffen. Vor allem die Zahl der mittelständischen Anbieter bei Standardsoftware (ERP – Enterprise Resource Management), Kundenmanagement (CRM – Customer Relationship Management) und Lieferkettenmanagement (SCM – Supply Chain Management) sinkt. Entsprechend sind Migrationspläne zu entwerfen und Alternativsysteme ausfindig zu machen: Durch die Marktbereinigung entstehen spannende Lösungen mit Ausrichtungen auf spezielle Branchen wie die Fertigungsindustrie. Da etwa 85 Prozent der Mittelständler noch ohne CRM-Lösung sind, wird hier weiterhin auch stark technisch argumentiert – Themen sind Datenanalysefunktionen, die Verfolgung von Leads, die Auswertung einzelner Verkaufsgebiete und die Unterstützung von Mobilanwendungen.
Intensiviert hat sich der Trend, alle Geschäftsprozesse im Unternehmen in einer betriebswirtschaftlichen Lösung zu integrieren – das Management von Kunden, Lieferketten, Unternehmensressourcen und der Produktion bedingt sich gegenseitig und optimiert die Unternehmens-Performance. Nach dem Konzept der Business Process Fusion werden operative Geschäftsabläufe mit der Unternehmensführung verknüpft, die durch die schnelle Änderung von Prozessen ihre Steuerungsmöglichkeit erhöht. Die Gewichtigkeit des Ansatzes hat sogar Marktführer zusammengebracht: In der SAP-Integrationsplattform Netweaver zum Beispiel wird das Prozessmodellierungs-Tool Aris von IDS Scheer eingebaut. Die Leistungsfähigkeit der Prozesse beeinflusst die Geschäftsintelligenz. Um den Überblick zu wahren, raten Analysten zu einer Zusammenführung der verschiedenen Business-Intelligence-Lösungen (BI) in den Unternehmen und zu einer Verbindung mit Finanzdaten. Erst dieses so genannte Business-Performance-Management sichert eine übergreifende Überwachung der wichtigsten Kennzahlen.
Die klassischen Systemmanagement-Systeme verwalten inzwischen nicht mehr nur die heterogenen Infrastrukturen, sondern kontrollieren die IT und Netzwerktechnik, die Geschäftsabläufen zu Grunde liegen. Auch liefern sie Informationen, mit denen IT-Leiter die von den Fachabteilungen gewünschten Service-Levels abrechnen können – wer eine höhere Verfügbarkeit braucht, muss mehr zahlen. Um die Leistungsfähigkeit der IT-Abteilung im Blick zu behalten, greifen die Verantwortlichen zunehmend zu speziellen Softwarewerkzeugen für das Asset- und Finanzmanagement. Diese kontrollieren den IT-Bestand, verwalten Konfigurationen und sorgen durch Lizenzen für Kostentransparenz, sei es in Bezug auf einzelne Arbeitsplätze oder ganze Geschäftsprozesse.
Produktion
Durch die Vernetzung der Produktion und den Einsatz von IT-Standards wachsen Fabrik und Verwaltung daten- und managementtechnisch zusammen. Einerseits werden Bestellungen aus dem Vertriebssystem (CRM) im ERP-System in einen Produktionsauftrag umgewandelt und an die Fabrik und die Zulieferer (SCM) geleitet. Umgekehrt erfasst das Manufacturing Execution System alle Vorgänge in der Fertigung und informiert die betriebswirtschaftlichen Standardprogramme. Die wichtigste IT-Strategie hier ist das Erarbeiten eines Product Lifecycle Management (PLM), das eine solide Datenbasis garantiert. In der Theorie halten Lösungen für das Management von Produktlebenszyklen alle relevanten Daten über ein Produkt vor, angefangen beim Entwurf über die Konstruktion und Fertigung bis hin zur Wartung. Inzwischen haben darauf aufsetzende Anwendungen wie das Produktdatenmanagement und das kollaborative Produktdesign ein hohes Niveau erreicht – im Gegensatz zu dem Produkt-Portfolio- und Service-Management sowie der Materialbeschaffung.
Sicherheit
Die Zahl der IT-Sicherheitsvorfälle steigt dramatisch an – ein Generalthema für Privatanwender und Unternehmen. Vor allem kleine und mittlere Unternehmen lassen es an Sicherheitsdenken fehlen: Erst 20 Prozent der mittelständischen Unternehmen arbeiten mit Schutzmechanismen. Auch die volkswirtschaftliche Komponente zählt: Vom Schutz der Informationen und Systeme hängt die Akzeptanz von E-Business und E-Government ab. Inzwischen ist die Abwehr von gefährlichen Wurm- und Virenepidemien sowie Hackerattacken durch Virenscanner und Firewalls nur noch ein Element der IT-Sicherheit, hinzu kommen Integrität und Verfügbarkeit der Daten sowie die Gewähr für die Kommunikationspartner durch Authentizität und Verbindlichkeit. Zum Zuge kommen Schutzmechanismen wie Kryptochips (Trusted Computing Group) und Konzepte mit der Smart-Card oder der digitalen Signatur.
Da die Administratoren in den Unternehmen durch die permanenten Attacken in einer Flut von Ereignismeldungen ertrinken, schlagen die Sicherheitsanbieter Automatisierungskonzepte vor. Statt einzelner Gefahrensensoren wachen übergreifende Suiten. Konsolen korrelieren alle Störvorfälle aus Virtual Private Networks, Firewalls, Intrusion Detection und Virenscannern und informieren in Echtzeit übersichtlich über alle Gefahren und Schwachstellen. Proaktive Intrusion-Prevention-Systeme schlagen nicht mehr blind Alarm, sondern reagieren ausschließlich auf eine eindeutig identifizierte Bedrohung – und zwar selbsttätig, wodurch das aufwändige Rund-um-die-Uhr-Monitoring entfällt. Die höchste Stufe der IT-Sicherheit setzt auf den Event-Kollektoren auf, die die Security-Info-Flut kanalisieren: Die Suiten werden an die mächtigen Systemmanagementlösungen angeflanscht. Damit wird die Aufmerksamkeit auf diejenigen E-Business-Geschäftsprozesse gelenkt, die für die Unternehmen kritisch sind.
Media Contact
Alle Nachrichten aus der Kategorie: CeBIT 2004
Neueste Beiträge
Spitzenforschung in der Bioprozesstechnik
Das IMC Krems University of Applied Sciences (IMC Krems) hat sich im Bereich Bioprocess Engineering (Bioprozess- oder Prozesstechnik) als Institution mit herausragender Expertise im Bereich Fermentationstechnologie etabliert. Unter der Leitung…
Datensammler am Meeresgrund
Neuer Messknoten vor Boknis Eck wurde heute installiert. In der Eckernförder Bucht, knapp zwei Kilometer vor der Küste, befindet sich eine der ältesten marinen Zeitserienstationen weltweit: Boknis Eck. Seit 1957…
Rotorblätter für Mega-Windkraftanlagen optimiert
Ein internationales Forschungsteam an der Fachhochschule (FH) Kiel hat die aerodynamischen Profile von Rotorblättern von Mega-Windkraftanlagen optimiert. Hierfür analysierte das Team den Übergangsbereich von Rotorblättern direkt an der Rotornabe, der…