Trends und Themen der CeBIT 2004

Autonome und flexible Systemarchitekturen – Prozessmanagement und Kostenmanagement – Mobile Infrastrukturen

Über drei Jahre besaß Kostenreduzierung oberste Priorität bei den professionellen Anwendern von Informations- und Tele­kommu­ni­ka­tions­technik. Durch die positiven Konjunkturaussichten und die Erhöhung der IT-Budgets sowie den aufgebauten Investitions- und Innovationsdruck ste­hen für 2004 wieder zahlreiche interessante Projekte an. Vor diesem Hintergrund unterstreicht die CeBIT 2004 ihren Charakter als weltweit bedeu­tendste Trendmesse und In­for­mationsplattform. Die kommende CeBIT findet vom 18. bis 24. März statt.

Als strategische Herausforderungen der nächsten drei Jahre gelten au­to­no­me und flexible Systemarchitekturen, die Verknüpfung operativer Ge­schäfts­abläufe mit der Unternehmensführung im Sinne des Prozess­managements, die digitale Fabrik, Kostenmanagement und mobile In­fra­struk­turen – von lokalen drahtlosen Netzwerken (WLAN) bis zu inter­nationalen Collaboration-Konzepten auf Basis des Internet Protocol (IP).

Top-Themen sind auch Sicherheit, die über die Verfügbarkeit von Informationen entscheidet und damit unternehmenskritisch geworden ist, und E-Government, das nicht nur die öffentliche Verwaltung mo­der­ni­siert und von bürokratischen Verkrustungen befreit, sondern den Un­ter­nehmen auch Kosten spart. Die EU-Kommission hat analysiert, dass jeder Euro, den die öffentliche Hand in IT investiert, eine Rendite von 1,80 Euro erbringt.

Das im vergangenen Jahr zum Hype-Thema aufgewertete On-demand-Computing fordert als fundamentaler Architekturwechsel kon­zep­tio­nel­les Denken ein. Die großen IT- und Servicekonzerne arbeiten an Kompo­nen­ten, die Computern und Speichern die Fähigkeit zur Selbstheilung sowie -konfiguration und -optimierung verleihen. Indem diese stabilen IT-Ressourcen virtualisiert werden, sind sie von allen Anwendungen nutzbar – die Systemauslastung steigt. Durch die enge Koppelung an die Un­ter­neh­mensprozesse reagieren sie flexibel auf die Geschäftsbedürfnisse – Ressourcen schalten sich nach Bedarf (on demand) automatisch zu oder werden von externen Anbietern zugekauft.

Auf der CeBIT 2004 stehen die technischen Grundlagen – Marktforscher spre­chen von Adaptive-, Utility-Computing oder Organic-IT – für das Real­time-Unternehmen der Zukunft zur Diskussion. Der Entwurf verlangt Weichenstellungen und neue Technologien: Server- und Speicher-Virtua­li­sierung, die Zusammenschaltung dieser Ressourcen in Grid-Netzen, die Sicher­stellung der Breitbandkommunikation, die Festlegung auf wenige Betriebs­systeme wie das Quellcode-offene Linux und Entwicklungs-Platt­for­men wie Dotnet oder J2EE. Der Architekturentwurf fordert auch fort­ge­setzte Anstrengungen bei der Konsolidierung und An­wen­dungs­in­te­gra­tion. Letzteres verleiht zwei Standards eine höhere Wertigkeit: den für die automatische Interaktion von Programmen zuständigen Webservice und die Extended Markup Language (XML), mit der Geschäftprozesse auf un­terschiedlichen Ebenen beschrieben werden.

Ein besonderes Augenmerk gilt 2004 der Forschung. Die Institute und Uni­versitäten denken prototypisch die Zukunft voraus mit Produkten wie intel­ligente Textilien, Bildschirme zum Aufrollen, autarke Mikrosysteme oder digitale Lebewesen als Benutzerhilfe. Und sie beherrschen auch die Tech­nologien, die das Privat- sowie das Berufsleben verändern. So fließen durch die Augmented Reality virtuelle Informationen in reale Umge­bun­gen ein, die Ambient Intelligence macht das Leben leichter: Mikroskalige, drahtlos vernetzte Rechner werden in Alltagsgegenstände eingebettet und verwandeln diese in aktive Subjekte, die sich Bedürfnissen anpassen – das Haus wird komfortabler und energiesparender, die Arbeitseffizienz im Büro steigt durch aufmerksame Hintergrundintelligenz, Autos wissen über Verkehr, Straßenführung und Beschaffenheit mehr als der Fahrer, und die technischen Geräte benehmen sich durch Sprach-, Mimik- und Gestenerkennung benutzer­freundlicher.

In den folgenden drei Teilen werden konkret die Entwicklungstrends in einzelnen Ausstellungsbereichen der CeBIT 2004 beschrieben:

Teil 1: Telekommunikation und Informationstechnik
Teil 2: Computer und Speicher
Teil 3: Software, Produktion und Sicherheit

Teil 1: Telekommunikation und Informationstechnik

Telekommunikation

Die Telekommunikationsbranche optimiert den breitbandigen Zugang zu Informationen für Unterhaltung und Business. In Ballungszentren breitet sich das UMTS-Netz (Universal Mobile Telecommunications Service) für mo­bile Sprach- und Datendienste langsam aus. Zwar bleiben die erste und zweite Mobilfunkgeneration mit Datenübertragungsraten von 9,6 (GSM, Global System for Mobile Communication) und 115 Kilobit pro Se­kun­de (GPRS, General Packet Radio Services) intakt, doch die Zukunft ge­hört der UMTS-Infrastruktur mit Übertragungsraten von 2,5 Megabit pro Sekunde. Zwei Wachstumstreiber wachsen zusammmen: die Mobilfunk- und die Internet-Dienste – die mobilen Multimedia-Services mit Bild-, Ton-, Sprache-, Video- und Datenkomponenten nehmen Formen an.

Jenseits des beliebten Short Message Service (SMS) bereichert der Multimedia Message Service (MMS) die Privatkommunikation: Nach­rich­ten von Handy zu Handy enthalten auch Sound, Farbgrafiken und ange­hängte Dateien. Grußkarten, Bildschirmschoner, Postkarten, Visiten­kar­ten, Landkarten, Zeichentrick-Animationen, interaktive Videos oder Ge­sprächs­auf­zeich­nun­gen fließen von einen 3G-Handy (3G = Dritte Gene­ration) zum anderen.

Ad-hoc-Netze, die sich je nach Position des Teilnehmers ohne weitere Infra­struktur temporär aufbauen, öffnen neue Anwendungsfelder wie beispiels­weise die Car-to-car-Kommunikation zwischen fahrenden Autos.

Für den regional begrenzten Zugang zu Internet und Intranet konkur­rie­ren Bluetooth- mit den billigeren W-LANs – letztere stehen ganz oben auf der To-do-Liste der Unternehmen. Auch steigt die Zahl der öffentlichen Hotspots: Cafes, Hotels, Bahnhöfe und Flugplätze installieren zunehmend WLANs. Das Messegelände der CeBIT Hannover ist einer der größten Hotspots Europas.

Bei der Netzwerktechnik beeinflussen Trends wie Telefonieren über das Internet (Voice over IP), bessere Service Level für breitbandige An­wen­dun­gen, höhere Sicherheit, Mobilität und die neue IP-Version 6 die Auf­gaben­stellung. Die Sprachübertragung über das Internet-Protokoll wird durch die Einbeziehung der Standards für drahtlose Netze und schnurlose Tele­fonie (DECT) auch mobil. Um die Gesamtleistung von Unter­neh­mensnetzen zu steigern, haben die Hersteller ihre Komponenten weiter verbessert. Beispielsweise vervierfachen Einschubkarten für Router den Datendurchsatz. Die Vernetzung von Hochleistungsrechnern und Cluster (Server-Verbünde) wird durch neue Standards effektiver: Der erwartete Standard für die 10-Gigabit-Ethernet-Übertragung über das Kupferkabel sieht eine maximale Distanzüberbrückung von 15 Metern vor, auf der CeBIT werden einige Hersteller die 30-Meter-Marke erreichen.

In so genannten Personal Area Networks soll künftig Ultrawideband (UWB) Übertragungraten von über 100 Megabit pro Sekunde erreichen – als Backbone von UWB-Netzen sollen selbstkonfigurierende Netze (Mesh Networking) und WLANs dienen.

Informationstechnik

Die Palette an mobilen Endgeräten für die drahtlose Kommunikation auf Basis von UMTS, GPRS, Bluetooth und Wireless LANs erweitert sich per­ma­nent – und die Funktionen konvergieren. Trotzdem lassen sich noch klare Klassen definieren wie Mobilcomputer (Notebook, PDA, Tablet-PC, Electronic Book), Kommunikationssysteme (Smartphone, Handy) und Entertainment-Geräte (Camcorder, Spielkonsolen, Digitalkamera, Audio- und Video-Player). Unbeeinflusst von der Konkurrenz durch die kommu­nika­tiven Datensysteme zeigt sich das Handy: 2003 sind laut dem Markt­for­schungsunternehmen IDC erstmals über eine halbe Milliarde Handys abge­setzt worden. Obli­ga­to­risch werden eingebaute Kameras und Farb­displays.

Angesichts des PDAs mit Falttastatur, des Handys mit Navigationssystem, des Smartphones mit Touchscreen oder Linux-Betriebssystem und des leistungsstarken Subnotebooks fällt die Aufgabe nicht leicht, das für die jeweilige Anwendung geeignete Gerät auszusuchen. Abzuwägen sind dabei Funktionalität und Kosten, denn ein billiger PDA lebt kürzer als ein teures Notebook. Sind letztere mit Intels Centrino-Mobiltechnologie aus­ge­rüstet, so ist die WLAN-Funktion ohne Zusatzkarte integriert. Sorgen berei­ten bei den mobilen Computern immer noch das Daten-Backup und die Sicherheit. Für Multimedia-Anwendungen haben einige Hersteller eige­ne Bedienkonsolen entwickelt. Zur einfachen Bedienung der tasta­tur­schwa­chen PDAs und Smartphones wird jetzt die Sprachsteuerung heran­­gezogen.

Bei den Büro-Peripheriesystemen hält sich neben der Leistungssteigerung hinsichtlich des Outputs der Trend zu Multifunktionssystemen, die drucken, faxen, kopieren, scannen und Mails versenden. Speziell bei Druck- und Kopiersystemen sind die Kosten ins Blickfeld geraten. Nach Untersuchungen der Gartner Group gehen hier 57 Prozent der Auf­wen­dungen in Hard­warekauf, Wartung und Verbrauchsmaterialien, der Rest sind versteckte Kosten durch Software, Management, Administration und Infrastruktur. Inzwischen erarbeiten die Hersteller spezielle Moni­toring-Tools, die Output-Systeme betriebswirtschaftlich beurteilen. Trotz der technischen Ausgereiftheit der Output-Systeme entstehen immer wieder verblüf­fende Neuerungen: Ein spezieller Lasertoner beispielsweise lässt sich durch Erwärmung vom Papier lösen und spart so Papier.

Als Blickfang für den PC-Arbeitsplatz haben die Röhrenbildschirme end­gül­tig ausgedient. TFT-LCD-Displays sind preiswert geworden, besitzen eine scharfe Auflösung, strahlende Helligkeit sowie verzerrungsfreie Dar­stel­lung. Außerdem verbrauchen sie weniger Strom und geben weniger Wärme ab. Bei den Standard-Flachbildschirmen steht sogar eine Preis­senkung ins Haus – für Anwendungen wie Layout, Videos oder grafische Bildbearbeitung ist jedoch eine aufmerksamere Auswahl zu treffen.

Für den Heimbereich produzieren inzwischen auch Computerhersteller große Plasmabildschirme für Fernsehgeräte, die das Home-Enter­tain­ment-System drahtlos mit digitalen Bilddaten versorgen. Die Polytronik-Forschung zeigt die Darstellungsfläche der Zukunft: biegsame Displays aus Polymeren.

Das gesamte Gebiet der Peripherie bleibt innovativ, das gilt für kleine licht­starke Digitalprojektoren ebenso wie für Kugelschreiber mit einge­bauter Kamera. Als mobile Speicher etablieren sich auf Kosten der Dis­ket­ten die kleinen Flash-Drives, die am Universal-Serial-Bus-Port (USB) eingesteckt wer­den und schon Speicherkapazitäten von bis zu zwei Giga­byte errei­chen.

Teil 2: Computer und Speicher

Die über Jahresfrist um fast ein Viertel gesunkenen Preise bei Notebooks haben zur Folge, dass hier die Wachstumsraten im Vergleich zu den Desktops höher sind. Trotz dieses Mobil-Booms werden immer noch doppelt so viele Schreibtisch-PCs verkauft. Das Standard-Business-System sieht den Intel-Pentium-4-Prozessor vor, als Betriebssystem Windows XP Professional und die Office-Suite – als Alternative stehen Linux und Open­source-Büropakete parat. Gartner Group rät aus Kosten- und Infrastrukturgründen, Desktops, die vor 2000 gekauft wurden, dieses Jahr auszutauschen. Gerade bei den PCs mit Intel-Prozessor und Microsoft-Betriebssystem wird die Senkung der Betriebskosten durch intelligente Managementkonzepte angedacht.

Die Leistungsfähigkeit der Server hat sich durch die 64-Bit-Prozessoren verbessert. Die CPUs der fünf Prozessorhersteller beherrschen das Multithreading, bei dem mehrere Aufgaben parallel verarbeitet werden. Dazu geht der Trend bei den insgesamt sieben Architekturen dahin, zwei CPU-Kerne auf einen Chip zu packen. Die reine Performance hat aber als Kriterium ausgedient. Parameter sind inzwischen Partitions- und Cluster-Konzepte sowie Automatisierungstechniken wie die Komponenten zur Selbstheilung und -konfiguration, die Server sicherer und stabiler machen. Inzwischen ist auch das Standardisierungsbestreben der Anwen­der messbar: Erstmals übertreffen im Server-Bereich die Umsätze mit Intel-basierten Rechnern die der klassischen Unix-Systeme, denen bisher die Abarbeitung der unternehmenskritischen Anwendungen vorbehalten war. So genannte Blade-Server integrieren in einer Box relativ preiswerte Server-, Netzwerk- und Speicherressourcen und sind damit einfacher zu managen und auszubauen. Als internes Ein/Ausgabesystem kündigt sich der neue Standard PCI Express-Bus an. Die Verbindung zwischen den Systemen hält weiter Infiniband mit einer Übertragungsleistung von 2,5 bis 30 Gigabit pro Sekunde.

Neben den Microsoft-Produkten etabliert sich das Opensource-System Linux, das sich mit zunehmender Sicherheits- und Skalierfähigkeit als Alter­native zu den Unix-Derivaten darstellt, die bisher die hoch­ver­füg­baren Anwendungen gesteuert haben. Zum ersten Mal hat ein Cluster aus Linux-Servern in einem Transaktionstest (TPC-C-Benchmark) eine höhe­re Leistung erzielt als ein Kompaktsystem – dabei hat die verteilte Rechner­architektur gegenüber dem symmetrischen Multiprocessing ein deut­lich besseres Preis-Leistungs-Verhältnis. Auf der CeBIT 2004 wird der neue Linux-Kernel (2.6) auf den Servern laufen.

Ungebremst steigt der Speicherbedarf, was dem Markt für Platten­speicher Zuwächse beschert. Konzentrierte sich bis vor wenigen Jahren die Technologiediskussion auf die eigentliche Hardware, so stehen heute die Speichervirtualisierung in großen Netzen und das Überwachen der Daten im Vordergrund. Der Anwender braucht sich nicht mehr den Kopf zu zerbrechen, wo die Daten vom Storage-System physikalisch abge­legt werden, wichtig ist nur, dass der entsprechende Speicherraum für die Anwendungen vorhanden ist. Die Anbieter von Speicher- und Server-Systemen bau­en Portfolios für das Speichermanagement und das Infor­ma­tion Life­cycle Management (ILM) auf. Solche ILM-Lösungen verwalten die Daten in den SAN- (Storage Area Network) und NAS-Systemen (Network Attached Storage) von der Erstellung bis zum Löschen aktiv und abhängig von den geschäft­lichen Anforderungen.

Um die Plattenspeicher verschiedener Hersteller in die Netze einzu­bin­den, schreitet auch die Standardisierung auf Systemebene fort. So adres­sie­ren die durch den Microsoft Windows Storage Server 2003 neuerdings auch Windows-basierten NAS-Lösungen die individuellen Speicher­be­dürf­nisse von mittelständischen bis zu großen Unternehmen. Durch ver­bes­serte Komponenten erhöht sich auch die Leistungsfähigkeit der Spei­cher­netzwerke. So durchbrechen gerade smarte Speicher-Switches, die intel­ligente Dienste wie Datenreplikation oder Spiegelung ausführen, Gren­zen: Lag der Durchsatz einer Virtualisierungsmaschine im Jahr 2002 im Bereich von rund 300 000 Ein/Ausgabe-Operationen pro Sekunde, so ist die Obergrenze jetzt bei sechs Millionen Operationen pro Sekunde ange­kommen.

Teil 3: Software, Produktion und Sicherheit

Software

Der Sektor der betriebswirtschaftlichen Geschäftsprozesssoftware ist von einer starken Konsolidierungswelle betroffen. Vor allem die Zahl der mit­telständischen Anbieter bei Standardsoftware (ERP – Enterprise Resource Management), Kundenmanagement (CRM – Customer Relationship Manage­ment) und Lieferkettenmanagement (SCM – Supply Chain Manage­­ment) sinkt. Entsprechend sind Migrationspläne zu entwerfen und Alternativsysteme ausfindig zu machen: Durch die Marktbereinigung ent­stehen spannende Lösungen mit Ausrichtungen auf spezielle Bran­chen wie die Fertigungsindustrie. Da etwa 85 Prozent der Mittelständler noch ohne CRM-Lösung sind, wird hier weiterhin auch stark technisch argumentiert – Themen sind Datenanalysefunktionen, die Verfolgung von Leads, die Auswertung einzelner Verkaufsgebiete und die Unter­stützung von Mobilanwendungen.

Intensiviert hat sich der Trend, alle Geschäftsprozesse im Unternehmen in einer betriebswirtschaftlichen Lösung zu integrieren – das Manage­ment von Kunden, Lieferketten, Unternehmensressourcen und der Pro­duk­tion bedingt sich gegenseitig und optimiert die Unternehmens-Per­for­mance. Nach dem Konzept der Business Process Fusion werden opera­tive Geschäftsabläufe mit der Unternehmensführung verknüpft, die durch die schnelle Änderung von Prozessen ihre Steuerungsmöglichkeit er­höht. Die Gewichtigkeit des Ansatzes hat sogar Marktführer zu­sam­mengebracht: In der SAP-Integrationsplattform Netweaver zum Beispiel wird das Prozessmodellierungs-Tool Aris von IDS Scheer eingebaut. Die Leistungsfähigkeit der Prozesse beeinflusst die Geschäftsintelligenz. Um den Überblick zu wahren, raten Analysten zu einer Zusammenführung der verschiedenen Business-Intelligence-Lösungen (BI) in den Unter­neh­men und zu einer Verbindung mit Finanzdaten. Erst dieses so genannte Business-Performance-Management sichert eine übergreifende Über­wa­chung der wichtigsten Kennzahlen.

Die klassischen Systemmanagement-Systeme verwalten inzwischen nicht mehr nur die heterogenen Infrastrukturen, sondern kontrollieren die IT und Netzwerktechnik, die Geschäftsabläufen zu Grunde liegen. Auch liefern sie Informationen, mit denen IT-Leiter die von den Fach­ab­teilungen gewünschten Service-Levels abrechnen können – wer eine höhe­re Verfügbarkeit braucht, muss mehr zahlen. Um die Leis­tungs­fähig­keit der IT-Abteilung im Blick zu behalten, greifen die Verantwortlichen zunehmend zu speziellen Softwarewerkzeugen für das Asset- und Finanzmanagement. Diese kontrollieren den IT-Bestand, verwalten Konfi­gu­rationen und sorgen durch Lizenzen für Kostentransparenz, sei es in Bezug auf einzelne Arbeitsplätze oder ganze Geschäftsprozesse.

Produktion

Durch die Vernetzung der Produktion und den Einsatz von IT-Standards wach­sen Fabrik und Verwaltung daten- und managementtechnisch zusam­men. Einerseits werden Bestellungen aus dem Vertriebssystem (CRM) im ERP-System in einen Produktionsauftrag umgewandelt und an die Fabrik und die Zulieferer (SCM) geleitet. Umgekehrt erfasst das Manu­fac­turing Execution System alle Vorgänge in der Fertigung und informiert die betriebswirtschaftlichen Standardprogramme. Die wichtigste IT-Stra­tegie hier ist das Erarbeiten eines Product Lifecycle Management (PLM), das eine solide Datenbasis garantiert. In der Theorie halten Lösungen für das Management von Produktlebenszyklen alle relevanten Daten über ein Produkt vor, angefangen beim Entwurf über die Konstruktion und Fertigung bis hin zur Wartung. Inzwischen haben darauf aufsetzende Anwendungen wie das Produktdatenmanagement und das kollaborative Produktdesign ein hohes Niveau erreicht – im Gegensatz zu dem Produkt-Portfolio- und Service-Management sowie der Materialbeschaffung.

Sicherheit

Die Zahl der IT-Sicherheitsvorfälle steigt dramatisch an – ein Gene­ral­thema für Privatanwender und Unternehmen. Vor allem kleine und mitt­lere Unternehmen lassen es an Sicherheitsdenken fehlen: Erst 20 Prozent der mittelständischen Unternehmen arbeiten mit Schutzmechanismen. Auch die volkswirtschaftliche Komponente zählt: Vom Schutz der Informationen und Systeme hängt die Akzeptanz von E-Business und E-Government ab. Inzwischen ist die Abwehr von gefährlichen Wurm- und Virenepidemien sowie Hackerattacken durch Virenscanner und Firewalls nur noch ein Element der IT-Sicherheit, hinzu kommen Integrität und Ver­füg­­barkeit der Daten sowie die Gewähr für die Kommunikationspartner durch Authentizität und Verbindlichkeit. Zum Zuge kommen Schutz­mecha­nismen wie Kryptochips (Trusted Computing Group) und Konzepte mit der Smart-Card oder der digitalen Signatur.

Da die Administratoren in den Unternehmen durch die permanenten Attacken in einer Flut von Ereignismeldungen ertrinken, schlagen die Sicher­heitsanbieter Automatisierungskonzepte vor. Statt einzelner Gefah­rensensoren wachen übergreifende Suiten. Konsolen korrelieren alle Störvorfälle aus Virtual Private Networks, Firewalls, Intrusion Detec­tion und Virenscannern und informieren in Echtzeit übersichtlich über alle Gefahren und Schwachstellen. Proaktive Intrusion-Prevention-Sys­te­me schlagen nicht mehr blind Alarm, sondern reagieren ausschließlich auf eine eindeutig identifizierte Bedrohung – und zwar selbsttätig, wo­durch das aufwändige Rund-um-die-Uhr-Monitoring entfällt. Die höchste Stufe der IT-Sicherheit setzt auf den Event-Kollektoren auf, die die Security-Info-Flut kanalisieren: Die Suiten werden an die mächtigen System­managementlösungen angeflanscht. Damit wird die Auf­merk­sam­keit auf diejenigen E-Business-Geschäftsprozesse gelenkt, die für die Unter­neh­men kritisch sind.

Media Contact

Gabriele Dörries Deutsche Messe AG

Weitere Informationen:

http://www.cebit.de http://www.messe.de

Alle Nachrichten aus der Kategorie: CeBIT 2004

Zurück zur Startseite

Kommentare (0)

Schreiben Sie einen Kommentar

Neueste Beiträge

Spitzenforschung in der Bioprozesstechnik

Das IMC Krems University of Applied Sciences (IMC Krems) hat sich im Bereich Bioprocess Engineering (Bioprozess- oder Prozesstechnik) als Institution mit herausragender Expertise im Bereich Fermentationstechnologie etabliert. Unter der Leitung…

Datensammler am Meeresgrund

Neuer Messknoten vor Boknis Eck wurde heute installiert. In der Eckernförder Bucht, knapp zwei Kilometer vor der Küste, befindet sich eine der ältesten marinen Zeitserienstationen weltweit: Boknis Eck. Seit 1957…

Rotorblätter für Mega-Windkraftanlagen optimiert

Ein internationales Forschungsteam an der Fachhochschule (FH) Kiel hat die aerodynamischen Profile von Rotorblättern von Mega-Windkraftanlagen optimiert. Hierfür analysierte das Team den Übergangsbereich von Rotorblättern direkt an der Rotornabe, der…