Intellectual Capital Management – Wenn Firmen mehr als einen Anwender begeistern wollen…

<p align="right">© Verity Deutschland GmbH</p>

Moderne Managementlehren begreifen Wissen als Produktionsmittel. Aber wie setzt man diese Auffassung praktisch um? Eines ist offenbar: Qualitätsmanagement beim Umgang mit Wissen tut Not. Der Fachbegriff dafür heißt Intellectual Capital Management

Jeder Mitarbeiter hat einen anderen Wissensbedarf

Anders als eine durchschnittliche Website ist die Oberfläche eines Portals personalisierbar. Und was noch wesentlich wichtiger ist: Im Firmennetz basiert das Verteilen von Daten via Portal auf unterschiedlichen Profilen. Sie grenzen die Möglichkeiten des Wissenszugangs auf die speziellen Erfordernisse einer Benutzergruppe ein. Denn wie auch in einem klassischen Theaterstück nimmt jeder Mitarbeiter in einem Unternehmen eine bestimmte Rolle ein, die eng mit Ausbildung und Abteilungszugehörigkeit zusammenhängt und natürlich gibt es oft mehrere Anwender mit vergleichbaren Aufgabenprofilen.

Primär geht es beim Portal um diesen rollenbasierten Zugang zu Daten, Information aus vielen internen und externen Quellen sowie diversen alten und neuen Applikationen, die über verschiedene Plattformen und Niederlassungen hinweg im ganzen Unternehmen verteilt sind. Doch gehen unterschiedliche Abteilungen und Organisationen mit differenzierten Ansprüchen an ein Portalprojekt. Vor allem die einzelnen Rollen in einem Unternehmen beinhalten ganz verschiedene Anforderungsprofile. Das ist offensichtlich, denn ein Manager hat andere Aufgaben zu erfüllen als ein Sachbearbeiter und damit auch andere Ansprüche an eine Informationsarchitektur.

Sparen in Krisenzeiten

Eine Entschlackungskur für Archive und Datenbanken hat positive Folgen: Die Lizenzkosten sinken mit dem Archivvolumen. Platz auf den Festplatten der Objekt- und Fileserver wird frei, und die Datensätze über Archivinhalte reduzieren sich merklich. Damit könnte der Return on Investment für Information Retrieval Projekte sehr viel früher eintreten als bei vielen anderen Komponenten eines umfangreichen Portalprojekts. Vor allem die ewige Wiederholung, dass eine gute Such- und Retrievallösung durch Zeitersparnis Kosten reduziert, wird unter diesem Aspekt erst nachvollziehbar. Denn was nutzt ein automatisches Zustellen neuer Archivinhalte nach Themenprofilen oder ein automatisiertes Vorschlagen von Dokumenten nach Nutzungshäufigkeit, wenn die Daten vor vier Jahren viel genutzt wurden oder gar von einer Abteilung stammen, deren Aufgaben längst an Dienstleister ausgelagert werden?

Beim Content Quality Management geht es also nicht nur um eine einmalige Sache, sondern um einen Prozess, der bei jeder organisatorischen Umstellung sinnvoll oder sogar zwingend erscheint. Leider gilt zurzeit noch das Horten von Daten als Maß aller Wissensorganisation? Wenn die quantitativen Eckdaten der alleinige Maßstab wären, hätten die Firmen mit den meisten Mitarbeitern auch die beste Position im Markt. Das ist aber nicht der Fall. Das intellektuelle Kapital erweist sich erst im jeweils aktuellen Zusammenhang als hilfreich: Das gilt für menschliche Kenntnisse wie für archiviertes Wissen. Ein paar Beispiele erläutern den smarten Umgang mit Firmenwissen via Portal.

Der Wolpertinger

Das sagenhafte Fabeltier Wolpertinger scheint Pate gestanden zu haben bei einem ambitionierten Portalvorhaben des Chemiekonzerns Wacker. Dort wurde im Rahmen eines Projekts die Website wie auch das weltweite Intranet mit etlichen Datenquellen verbunden: Ob Verwaltungsaufgaben oder Forschungsrecherche im Intranet, eine Projektplattform für zwischenbetriebliche Zusammenarbeit mit Kunden und Partnern im Extranet oder eine Kundenauskunft via Internet – alle Inhalte wurden mittels Retrievaltechnologien für die jeweilige Zielgruppe und den gewünschten Zugangskanal verfügbar gemacht. Dabei wurde das bestehende Documentum-Sicherheitsmodell einfach per Schnittstelle ohne großen Consultingaufwand übernommen.

Die Lösung besteht nicht nur darin, über 250 alte und neue Datenformate zu unterstützen, sondern auch in einer offenen Plattform, die zukünftig automatisch eingehende Inhalte aller Art nach konfigurierbaren Regelwerken klassifizieren wird. Geografisch verteilte, heterogene Datenbestände allen Mitarbeitern konzernweit verfügbar zu machen, reduziert nicht nur den Migrationsaufwand für Altdaten oder seltene Formate. Diese Grundfunktion erfüllt vor allem den dringenden Bedarf, endlich schnell und umfassend auskunftsfähig gegenüber Kunden, Partnern oder Kollegen zu sein. Besonderes Bonbon war die automatische Spracherkennung der einzelnen Dokumente, was die internationale Nutzbarkeit im Sinne der globalen Strategie enorm erweitert hat.

Neben der Unterstützung des konzernweiten Netzwerks mit über 60 möglichen Sprachen, von denen Wacker hauptsächlich Deutsch und Englisch im Intranet nutzt, gab es eine Überraschung im Konzern: „Vor dem Verity-Einsatz hatten wir rund 300.000 Dokumente archiviert. Nachdem wir uns mit der K2-Technologie eine Übersicht verschafft hatten, konnten wir alte und mehrfach vorhandene Inhalte von der Suche ausschließen. Dadurch reduzierte sich die Anzahl der Dokumente auf rund 80.000, was zu einer deutlichen Qualitätssteigerung bei der Informationssuche beigetragen hat. Das war ein schöner Nebeneffekt, wenn man Qualitätsmanagement für Inhalte quasi im Vorbeigehen betreiben kann „, freut sich Dr. Reichling.

„Blinde“ Ablagen und abteilungsinterne Dateninseln gehören der Vergangenheit an. Denn nur die geschäftskritischen Inhalte, die auch konzernweit eingesehen werden können, haben eine entscheidungssichernde Funktion – und das abteilungsübergreifend. Dieser Umstand macht sich vor allem im Extranet bei der netzbasierten Projektarbeit bezahlt. Denn Wacker ist führend beim Herstellen der Siliziumscheiben, die die Grundlage für neue leistungsfähige CPUs sind. Schon früh in der Planungs- und Designphase arbeiten die Chiphersteller sehr eng mit den Wacker-Ingenieuren zusammen. Beide Seiten dürfen weder zu viel noch zu wenig erfahren. Hier wird die essenzielle Bedeutung des Personalisierens und Profilierens offenbar. Denn beide Mitglieder in den Projektteams dürfen nur projektrelevante Details erfahren und publizieren. Nebenbei gelingt die gemeinsame, webbasierte Projektdokumentation aus allen wichtigen Perspektiven und führt so zu wirklich brauchbaren Debriefings. Und im Rahmen eines Content Quality Management müssen alle irrelevanten Daten, Dokumente und Informationen aus dem Pool der durchsuchbaren Inhalte permanent entfernt werden, da ansonsten sowohl Übersicht als auch die Aktualität von Daten verloren geht.

Skill Management im Netz

Andere Wege geht der bayerische IT-Dienstleister Softlab, ein Mitglied der BMW Group, der für Siemens Business Service ein Wissensportal konzipiert und implementiert hat. Auf der Grundlage des Produkts Enabler von Fujitsu Enabling Technologies wurde eine Plattform für Wissensmanagementprojekte bei Siemens Business Service (SBS) erstellt. Die Basis ist „Chestra“, das Vorgehensmodell bei den Siemens-Beratern. Die 33.000 SBS-Mitarbeiter greifen auf eine Wissensbasis von circa 4000 Chestra-Methoden und über 8000 HTML-Dokumente zu. Softlab brauchte also Mitarbeiter, die den Anforderungen an ein Projekt im Bereich Wissensmanagement gerecht wurden. Sie mussten das Fujitsu-Produkt Enabler beziehungsweise seine grundlegenden Technologien kennen.

Aber wie findet man in der Angebotsphase heraus, wer was kann? Die Antwort ist das Softlab eigene Skill Information System, mit dem wichtige Bereiche im Aufgabenfeld Human Ressources webbasiert erfolgen. Ähnlich der Expert Location bei Knowledge Management Anbietern wie Lotus und Verity kann man Fachleute direkt lokalisieren. Gareth Thomas, Geschäftsführer von Softlab in England: “ Mit dem Skill Information System können wir heute innerhalb von Sekunden bestimmte Experten auf dem ganzen Kontinent ausfindig machen, die wir früher nur durch viele Telefonate aufspüren konnten“. Durch gezielte Skill-Analysen verschaffte sich das Management bei Softlab rasch einen Überblick über das vorhandene Know-how und dessen Verteilung im Unternehmen. Skill-Defizite in den einzelnen Organisationseinheiten werden viel früher erkannt, und beim Skill-Aufbau kann das Management rechtzeitig entsprechend gegensteuern.

Identifiziertes Wissen wird bei der Akquisition neuer Projekte am Markt heute ganz gezielt angeboten, denn der interne Marktplatz der Fähigkeiten gibt jedem Mitarbeiter die Chance sich in allen Bereichen weiterzubilden und so in Wunschprojekten mitzuarbeiten. Die Mitarbeiter schätzen sich selbst ein und versehen ihre Fähigkeiten mit differenzierenden Attributen. Dann erkennt die Personalentwicklung, ob Schulungen beim Einzelnen notwendig, hilfreich oder überflüssig sind. Und dann sind da noch die Experten, die eigentlich lehren könnten, aber in der Entwicklung viel erfolgreicher und ertragreicher arbeiten, falls sie mit allem Wissenswerten zu ihrem Fachgebiet versorgt sind. Das Projektziel liegt also nicht im berühmten analytischen „Blick in den Rückspiegel“, wie man das bei vielen Data Warehouse Projekten kennt. Der Überblick über eine möglichst heterogene Datenbasis kann und soll Forschenden, Entwicklungsingenieuren und anderen Kopfarbeitern Inspiration und Entscheidungsgrundlage sein.

Professionelle Recherche

Bei Schering, einem der größten Pharmaunternehmen der Welt hat man diese Probleme: Wissen kommt – Wissen geht. Das Entlernen von veraltetem Wissen und das Wegwerfen überflüssiger Inhalte ist fast noch wichtiger als das Horten von Dokumenten. Denn ständig ändert sich der Fokus beim Forschen. Jahre der Forschung werden in wenigen Wochen durch klinische Studien zunichte gemacht oder bestätigt.

Man braucht eine verlässliche und gleichzeitig dynamische Rechercheplattform, die mit den Tausenden von wissenschaftlichen Begriffen in fünf Sprachen fertig werden muss. „Wir wollten damit auch intelligentes Blättern unterstützen. Wissenschaftler lassen sich durch solch ein Blättern durch Themen inspirieren. Automatisch generierte Topic Maps haben uns nicht überzeugt. Wir nutzen hier unsere Erfahrungen mit externen Informationsanbietern aus der täglichen Arbeit als Information Professionals. “ erklärt Dr. Claudia Körner, Leiterin Informationsmanagement ISL bei Schering. Außerdem leistet man sich eine eigene Informationsarchitektur mit individuellem Metadatenmodell. Auch die Themenkategorien sollten nach neuesten naturwissenschaftlich dokumentarischen Erkenntnissen und internen organisatorischen Änderungen ständig aktualisierbar sein. Schering nahm eine Lösung des amerikanischen Retrievalspezialisten Verity. Zum einen, weil nur so das eigene Metadatenmodell voll eingesetzt werden konnte und zum anderen, da sowohl alle Inhalte automatisch nach vorgegebener Themenstruktur (Taxonomie) zu sortieren sind, als auch die zugrundeliegenden Kategorien ständig durch Administratoren per Hand optimierbar sein sollten.

Das „Corporate Web“ bei Schering verbindet so alle Kontinente miteinander und die Pharmaforscher können nun endlich gemeinsam auf derselben Datengrundlage im Intranet forschen, obwohl sie oft über Tausende von Kilometern getrennt sind. Jeden Monat werden über 5000 verschiedene Nutzer gezählt, die einen regen Gebrauch der Suchfunktionen machen und so auf mittlerweile 200.000 Dokumente zugreifen. Nach dem ersten Einsatz der Indexengine sank die Zahl von anfangs 5 Millionen Dokumenten. „Die Technologie war uns eine große Hilfe dabei, überflüssige und veraltete Daten transparent zu machen und die einzelnen Abteilungen darauf hinzuweisen, diese Daten zu entfernen. Durch die enorme Reduzierung der Datenbestände ist die Erfolgsrate beim Suchen wirklich aktueller und hilfreicher Inhalte gestiegen“ erklärt Dr. Claudia Körner.

Verkauf und Beratung mit dem Web

Vor drei Jahren glaubte man noch, Portale wären eine Art Warenhaus im Internet. Vor allem im Zuge des Misserfolgs der großen B2B-Portale wie beispielsweise Covisint aus der Autoindustrie sank das Interesse an Webportalen für den Handel. Der größte Hersteller für Marktplätze im Internet Commerce One – eine 20% Tochter von SAP liegt im Sterben. Heute zeigen Amazon, einige Websites der Otto-Gruppe und viele Spezialanbieter, dass es auch ertragreich im Web zugehen kann. Sogar Apple ist mit seinem Musikportal zufrieden, obwohl das Herunterladen eines Songs knapp einen Dollar kostet. Aber auch Aktien und Wertpapiere kann man über ein Portal verkaufen.

Als der französische Versicherungskonzern AXA mit dem Kauf eines amerikanischen Finanzdienstleisters für zahlungskräftige Kunden einen neuen Geschäftsbereich eröffnete, wurden Pläne für den neuen Vertriebskanal Web geschmiedet. Heute ist AXAonline.com Anlaufpunkt für über 2,5 Millionen Kunden und über 7500 Kundenberater weltweit, wenn es um aktuelle Börsendaten und Hintergrundinformation für Hunderte von Finanzprodukten geht. Die an AXAonline.com angegliederten Websites umfassen viele verschiedene Inhalte, die diversen Produkten und Dienstleistungen zugeordnet sind. Mit dem Content Management System Teamsite von Interwoven wurde jedoch keine skalierbare, integrative Lösung für einen sicheren Wissenszugang geliefert.

Die Qualität einer Beratung – ob online oder per Kundenberater – basiert auf genau zur individuellen Finanzsituation passenden Inhalten. Daher musste AXA die Internetpräsenz mit einer präzisen Lösung für einen schnellen und bequemen Wissenszugriff aufwerten. Denn AXAonline.com ist ein Service, durch den Kunden und Berater Überblick über spezielle Angebote sowie personalisierte Produkte und Dienste erhalten sollen: Beratung, Onlineanalysen und in weitem Umfang nützliche Informationen für eine umfassende und nachhaltige Finanzplanung. Ein Portal bot daher die besten Möglichkeiten, eine integrierte und vielfältige AXA Website zu liefern. Nun galt es, Datenbanken, Archive und externe Quellen miteinander zu verbinden oder zumindest deren Inhalte zugänglich zu machen. Angesichts der hohen durchschnittlichen Userzahlen gaben auch Performancegründe den Ausschlag für eine Technologie, die auf einer verteilten Architektur basiert, welche sowohl auf Solaris wie auch auf anderen UNIX-Derivaten und natürlich auch auf Microsofts Betriebssystemen läuft.

Die Idee dahinter besteht darin, so genannte Brokerserver mit dem Verteilen von Anfragen zu beauftragen, die ihrerseits „wissen“, welche Suchserver gerade wenig Aufgaben zu erfüllen haben und auch über die thematisch zugehörigen Indexlisten zu einer Suchanfrage verfügen. Denn es ist nicht sinnvoll, eine Anfrage eines Kundenberaters über italienische Immobilienfonds an einen Server zu schicken, der Indexlisten über archivierte Personaldaten verwaltet. Naheliegenderweise darf nicht jeder Suchende auch alle möglichen Ergebnisse erhalten. Inhalte, für die ein Nutzer nicht zugelassen ist, sollten auch nicht in der Ergebnisliste erscheinen. Diese Sicherheitsfeatures kann man bis auf die Dokumentenebene hinunter individuell konfigurieren.

Das AXA-Portal versorgt auch das 7.500 Mitarbeiter starke Team von Finanzfachleuten, die sich auf das Portal für Kundenverwaltung mit Zugriff auf Kundendaten, Anwendungen, Formulare, Marktinformationen und Kundenaktivitäten vollständig verlassen. „Unsere Berater können mit gutem Gewissen auf AXAonline.com weisen und den Kunden sagen: Besuchen Sie unser Portal, und Sie können sofort die Information, Nachrichten und Dienstleistungen finden, die Sie suchen“, erklärt David Wollin, Managing Director von Emerging Technologies – der für die Realisierung zuständigen AXA-Abteilung. Hoffen wir, dass das bald auch auf alle anderen Angebote im Web zutrifft. Denn nicht selten werden Surfer verärgert durch ungepflegte Onlinekataloge, undurchsichtige Navigation oder eine Einkaufskorbfunktion, die auf sehr große Löcher im Einkaufswagen schließen läßt. Hoffen wir auch, dass diese Unsitte nicht auf das Intra- und Extranet übergreift. Denn die Mitarbeiter von Konzernen und Verwaltungen haben noch höhere Ansprüche als König Kunde.

Media Contact

Jörg Wittkewitz Wittkewitz & Partner

Weitere Informationen:

http://www.verity.com

Alle Nachrichten aus der Kategorie: Informationstechnologie

Neuerungen und Entwicklungen auf den Gebieten der Informations- und Datenverarbeitung sowie der dafür benötigten Hardware finden Sie hier zusammengefasst.

Unter anderem erhalten Sie Informationen aus den Teilbereichen: IT-Dienstleistungen, IT-Architektur, IT-Management und Telekommunikation.

Zurück zur Startseite

Kommentare (0)

Schreiben Sie einen Kommentar

Neueste Beiträge

Lichtmikroskopie: Computermodell ermöglicht bessere Bilder

Neue Deep-Learning-Architektur sorgt für höhere Effizienz. Die Lichtmikroskopie ist ein unverzichtbares Werkzeug zur Untersuchung unterschiedlichster Proben. Details werden dabei erst mit Hilfe der computergestützten Bildverarbeitung sichtbar. Obwohl bereits enorme Fortschritte…

Neue Maßstäbe in der Filtertechnik

Aerosolabscheider „MiniMax“ überzeugt mit herausragender Leistung und Effizienz. Angesichts wachsender gesetzlicher und industrieller Anforderungen ist die Entwicklung effizienter Abgasreinigungstechnologien sehr wichtig. Besonders in technischen Prozessen steigt der Bedarf an innovativen…

SpecPlate: Besserer Standard für die Laboranalytik

Mehr Effizienz, Tempo und Präzision bei Laboranalysen sowie ein drastisch reduzierter Materialverbrauch: Mit der SpecPlate ersetzt das Spin-off PHABIOC aus dem Karlsruher Institut für Technologie (KIT) durch innovatives Design gleich…