Semantische Technologien umfassen eine Vielzahl verschiedener Methoden und Technologien
Begriff: Semantische Technologie
Semantische Technologien umfassen eine Vielzahl verschiedener Methoden und Technologien
Begriff: Semantische Technologie
Semantische Technologien umfassen Methoden und Werkzeuge, welche den semantischen, d. h. inhaltsbezogenen Zugang zu Informationen ermöglichen: Nicht die Daten alleine stehen im Vordergrund sondern ihre Bedeutung und ihr Zusammenhang. Die
Begriff: Semantische Technologien
Bei der Definition des Solls differenzieren wir hierbei in zwei Kategorien die oft vernachlässigt werden: die Mitarbeitersichtweise und die Kunden-sichtweise auf eine Einarbeitung.
Perspektive: Mitarbeitersichtweise
Je höher in der Unternehmenshierarchie die Einarbeitung stattfindet, desto höher werden auch die Ansprüche an die Einarbeitung.
Unternehmenshierarchie und Ansprüche an die Einarbeitung
Dafür wird der Wissensgraph um geeignete Tools erweitert. DasTechnologiespektrum reicht hier je nach Strukturiertheitsgrad der Daten von Methodender semantischen Textanalyse (vgl. [6]) über das Parsen von regulären Ausdrücken(s. Abschn. 6.4.2) bis hin zum (teil)automatischen Mappen mithilfe von Transforma-tionsvokabularen (z. B. D2RQ in [7], R2RML)
Beispiel für eine KG-Erweiterung
eine durchgehende Digitalisierung benötigt einesemantische Wissensgrundlage, um Beziehungswissen effizient erstellen, verwaltenund nutzen zu können
Digitale Transformation benötigt eine semantische Wissensgrundlage.
Wir sind überzeugt, dass Industrial Knowledge Graphs auch in Zukunft ein zentraler Baustein der Siemens Digitalisierungsstrategie sein werden.
IKGs als zentraler Baustein der Siemens Digitalisierungsstrategie
Verbesserungspotenzial im Bereich der Graph-Visualisierung, des Authorings von Ontologien und Regeln und der einfachen Anbindung weiterer Datenquellen.
Verbesserungspotential von EKGs
Für eine noch schnellere Verbreitung im Unternehmensumfeld müssen die zugrunde liegenden Technologien jedoch zugänglicher für Nicht-Techniker werden.
Zukunft: Zugang für Nicht-Techniker
Darauf aufbauend haben wir eine Komponente entwickelt, die basierend auf Gemeinsamkeiten zwischen Projekten (hinsichtlich Personen, Themen und beteiligten Einheiten) Projektleitern wie auch R&D-Managern mögliche Kollaborationen vorschlägt. Erweitert um eine Feedbackfunktion zu den Vorschlägen wird der Projektgraph in Zukunft kontinuierlich lernen, wo sinnvollerweise Kollaborationen initiiert werden sollen.
Komponente: Feedbackfunktion Projektgraph wird kontinuierlich lernen. wo sinnvollere Kollaborationen initiiert werden sollen
Projektgraphen um die Fähigkeit erweitert, dem Projektleiter basierend auf seinen beschreibenden Texten relevante Themen und Technologien zur Übernahme vorzuschlagen.
Einsatz von Projektgraphen Erweiterung um die Fähigkeit, basierend auf seine beschreibenden Texten relevante Themen und Technologien zur Übernahme vorzuschlagen
Unterstützt durch Visualisierungen können so Überschneidungen (thematisch wie personell) schnell identifiziert und mögliche Synergien realisiert werden.
Nutzenkategorie: Visualisierung Nutzenkategorie: Identifizierung von Überschneidungen
Die entwickelte Plattform gibt Projektleitern und R&D-Verantwortlichen die Möglichkeit, den Projektbestand flexibel anhand beliebiger Kriterien zu durchsuchen.
Benutzer: Projektleiter und R&D-Verantwortliche
Verfahren des Relational Machine Learning, welche unter Ausnutzung der Graphstruktur in vielen Fällen Modelle besserer Qualität liefern.
Rleational Machine Learning-Ansatz
In vielen Anwendungen ist es allerdings notwendig, Daten nicht nur in hoher Qualität und semantisch angereichert zur Verfügung zu stellen, sondern neues Wissen aus vorhandenen Informationen zu generieren. Hierfür nutzen wir Machine Learning.
Kombination mit ML-Anästze zur Generierung von neuem Wissen
große Flexibilität des zugrunde liegenden Graph-Datenmodells unerlässlich zur Zusammenführung heterogener Informationen.
Interoperabilität
ermöglichen Ontologien einen Datenzugriff ohne die Kenntnis komplexer Datenbank-Schemata
Nutzenkategorie: Datenzugriff ohne Fachkenntnisse
Industrial Knowledge Graph quer durch Siemens
IKG Siemens
Schwierigkeiten oft zu ineffizienten Abläufen, und damit verbunden einer unnötig langen „time-to-data“.
Nutzer oft mit komplexem Datenzugriff zu kämpfen
Herausforderung 3: Nutzen haben mit komplexen Datenzugriff zu kämpfen
eine geringe Datenqualität
Herausforderung 2: Geringe Datenqualität
Benötigte Daten sind häufig verteilt auf mehrere isolierte Silos.
Herausforderung 1: Silos
zunehmende Bedeutung der „explainable AI", die unter anderem mit Hilfe semantischer Wissensmodelle implementiert werden kann
Explainable AI
Einsatz von Machine Learning und Graphen-Technologien
ML und Graph-Technologie
Einsatz hochskalierbarer Graphen-Datenbank-Technologien, die durch die Integration von semantischen Middleware-Komponenten, Visualisierungswerkzeugen und Editoren auch von Nicht-Technikern und Fachexperten bedient werden können,
Trend
Paulheim, H.: Knowledge Graph Refinement: A Survey of Approaches and Evaluation Methods. Semantic Web Journal, S. 1-23, 2016
KG
Nach der oben zitierten Definition eines Knowledge Graphen definiert er mögliche Klas-sen und Beziehungen von Entitäten der betrachteten Wissensdomänen in einem Schema
KG definiert Klassen und Beziehungen von Entitäten der betrachteten Wissensdomänen in einem Schema.
Darüber hinaus soll der Fokus künftiger Arbeit auf komplexeren Abfragen liegen, die mehrere Annotationen kombinieren und mit einer leistungsfähigen Volltext-suche verbinden
Fokus künftiger Arbeit auf komplexe Abfragen, die mehrere Annotationen kombinieren + leistungsfähige Volltextsuche
ein schnelles Modell zur Anbindung von geschlossenen Unternehmens-Ontologien bereitgestellt werden.
schnelles Modell
Linked Data bezieht sich dabei auf die technische Aufbereitung der Daten, so dass eine Verknüpfung (Linking) der Daten möglich ist. Das dabei zum Einsatz kommende Datenmodell ist RDF, das ursprünglich für das Semantic Web entwickelt wurde.
Eigenschaften einer Innovation beschreiben deren Nutzenkategorien (Teilqualitäten), d. h. deren Fähigkeit konkrete Anforderungen zu erfüllen.
Nutzenkategorien als Teilqualitäten, die wiederum Fähigkeiten entsprechen, um konkrete Anforderungen zu erfüllen.
Im Folgenden wird zur Gliederung auf Vershofens Nutzenschema (1940) zurück-gegriffen, da es aufgrund seiner Struktur gut geeignet erscheint, die potentiellen Nutzenaspekte von Innovationen am Beispiel von Smart Home zu erörtern.
Nutzenschema von Vershofen (1940)
Für die Analyse des Mehrwerts bzw. Nutzens von Innovationen erscheint es an dieser Stelle hilfreich, zwischen verschiedenen Nutzenkategorien zu unterschei-den.
Analyse der Potentiale über Nutzenkategorien
Ontologiegestützte Kompetenz-managementsysteme weisen gegenüber herkömmlichen – lediglich datenbankgestützten – Soft-waresystemen den Vorteil auf, selbstständig inhaltliche Schlussfolgerungen („Inferenzen“) durch-führen zu können.
Ontologiegestützte Kompetenzmanagementsysteme
Wissen über die (Kern-) Kompe-tenzen im Unternehmen computergestützt zugänglich machen.
Kompetenzmanagementsysteme
Verlust an Handlungsfähigkeit vorzubeugen, werden seit einigen Jahren Kompetenzmanagementsysteme eingesetzt
Einsatz von Kompetenzmanagementsysteme
Das betriebliche Kompetenzmanagement (Skillmanagement) gilt gerade für KMU als unverzicht-bar, um langfristig wettbewerbsfähig zu bleiben.
Kompetenzmanagement
„Ontology Mapping“
wie man verschiedene Ordnungssysteme ineinander ab- bilden bzw. zusammenführen kann
Da der Prozess für das Design, Implementierung und Wartung einer On-tologie jedoch nicht standardisiert ist, führt dies zwangsläufig zu einer Vielzahl von heterogenen Ordnungssystemen, die nebeneinander existieren
Herausforderung: Fehlende Standardisierung führt zu heterogene Ordnungssysteme
Prozessoptimierung
Integration von Personen, Anwendungen und Daten
Verbesserte Suche und Navigation
Kategorien
Nutzenkategorien semantischer Techologien
Personenorientierte Anwendungen
Nutzenpotentiale personenorientierter Anwendungen
Reasoner wer-den für Prozesse des automatischen Schließens
Reasoner = Inferenzmaschine
Merger und Mapper
Werkzeug
Generell werden semantische Technologien zur Informationsqualifizierung (z.B. der inhaltlichen Erschließung von Texten) und zur intelligenten Informationsver-arbeitung (z.B. dem automatischen Schließen) genutzt
Nutzung von semantischen Technologien:
Infomationsqualifizierung: Inhaltliches Erschließen von Texten Intelligente Informationsverarbeitung: Automatisches Schließen
Semantische Technologien als Grundlage zur Kompetenzkodifikation
Kompetenzkodifikation
Anwendungsfälle (bspw. die Besetzung von Projekten
Anwendungsfall: Besetzung eines Projekts
ndividuell pas-sende Zuordnung von Trainings und Dokumenten beim Onboarding eines neuen Mit-arbeiters
Smartes Onboarding
Einzelne Kompetenzen eines Mitarbeitenden können z. B. auf bestimmte Dokumente oder Projektberichte verweisen. Es können dadurch netzwerkartige Zusammenhänge zwischen unterschiedlichen Quellen und Objekten abgebildet werden.
Potential eines semantisches Netzes im TM
werden in einem semantischen Netz Zusammenhänge zwischen Begriffen, Aufgaben, Personen usw. modelliert und deren Beziehung untereinander abbildbar.
Semantische Netze
E-Portfolios sind netzbasierte Sammelmappen, die ver-schiedene digitale Medien und Services integrieren und auch im e-Learning eingesetzt werden, um Kompetenz auszuweisen und Lernprozesse zu reflektieren.
e-Portfolios
eine Art „persön-liches Logbuch“, in dem Kompetenzen dokumentiert, beschrieben und bewertet werden.
Kompetenzporfolio
Anders als bei klassischen Datenbankansätzen lässt sich damit implizit vorhandenes Wissen ableiten und indirekte Zusammenhänge können hergestellt werden. Die Skillbeschreibungen werden präziser wodurch die einzelnen Profile der Freelancern besser miteinander verglichen werden können, um rasch und treffsicher den geeignetsten Freelancer zu identifizieren.
Potentiale vom intelligenten Mapping-Ansatz
intelligente Vermittlung zwischen Projektanforderungen und verfügbaren Skills
Projektanforderungen und Skills
Ontologie ermöglicht ein intelligentes Mapping
Ontologie ermöglicht intelligentes Mapping
To achieve nimbleness, we can simplify the data landscape by using a semantic fabric, popularly called data fabric, based on a strong Metadata Management operating model.
data fabric
Cataloging of data using a strong Metadata Management operating model that includes the business data stewards will be a priority in 2022.
trend
Graphdatenbank ist Neo4J
Neo4J
Fast allen Wissensrepräsentationen liegt eine Ontologie der zu repräsentieren-den Gegebenheiten (Entitäten) zugrunde.•Eine Klassifizierung der Begriffe nach epistemischen Gesichtspunkten, diebis zu einem gewissen Grad auch eine Einteilung der realen Welt nachontologischen Gesichtspunkten widerspiegelt, nennt man eine begrifflicheOntologie. Die durch die Ontologie vorgegebenen Begriffsklassen heißenSorten (s. Abschn. 15.2.1 und Abschn. 17.1, dort insbesondere Abb. 17.1).Diese Sorten spielen eine wichtige Rolle beim Aufbau des formalen Appa-rates der Bedeutungsrepräsentation, da sie eine unabdingbare Voraussetzungfür die Festlegung der Definitions- bzw. Wertebereiche der Funktionen undRelationen sind (Spezifikation der Signaturen). Es ist eben ein wesentliches
Ontologie als Basistechnologie
Die Intention der SemanticKnowledge Representation besteht darin, geeignete Repräsentationsformen zur Abbildungvon Wissen aus der realen Welt zur Verfügung zu stellen.
Intention der semantischen Wissensrepräsentation
Ihr Ziel besteht nicht nur darin, Informationen aufBasis ihrer Bedeutung besser auffindbar zu machen, sondern auch eine Interoperabilität zwi-schen verschiedenen Systemen herzustellen [Dengel 2012, S. 15]
Ziel semantischer Tehcnologien
Dies ist schon deshalb unumgänglich, weil ohne semantische Technologien die Interoperabilität unter Maschinen und insbesondere Robotern für eine intelligente Pro-duktion und Zusammenarbeit nicht umsetzbar ist.Semantische Technologien und deren Bausteine werden auch bei der Entwicklung von autonomen und selbstlernenden Systemen eine Schlüsselrolle spielen. Unsere heutige Vor-stellung von der künstlichen Intelligenz beruht auf Algorithmen, deren Arbeitsweise nicht transparent ist. Das bedeutet, dass die erzielten Ergebnisse oft nicht nachvollziehbar, wenn
„Ein Wissensartefakt (knowledge artifact) ist alles, was es ermöglicht, Wissen unab-hängig vom Inhaber zu kommunizieren (z. B. Dokumente, Datenbanken, E-Mails, Work-flows). Wissensartefakte können entweder strukturierter, halbstrukturierter oder unstruk-turierter Natur sein. In ‚Wissensmanagement-Systemen‘ wird eine Ontologie verwendet, um implizites Wissen über die Wissensarbeiter zu erfassen und es mit Wissensartefakten für Klassifizierungs-, Such- und Browsing-Zwecke zu verbinden“
Was ist ein Wissensartefakt?
Das kuratierte KI-Wissen unterstützt effiziente Nutzung von Wissensarte-fakten und trägt damit maßgeblich zu einer Steigerung der funktionalen Güte, Dateneffi-zienz, Plausibilisierung und Absicherung von KI-gestützten Funktionen in betrieblichen Informationssystemen und Geschäftsprozessen bei
CSI-Wissen = kuratiertes KI-Wissen für eine effiziente Nutzung von Wissensartefakte.
Zu den Informationen über Technologien gehören geistiges Eigentum, Kompetenzen und Interessen.
BI-Ziele
drei wichtigsten Zieltypen dieser Funktionen sind Unternehmen, Produkte und Personen
BI-Zieltypen
Typische Anwendungsbereiche für EI sind unternehmensunterstützende Funktio-nen, wie z. B. das Supply- Chain- Management, Marktforschung, Partner, Kunden bzw. Investor Relation Management, Wettbewerberbeobachtung, Einkauf und Technologie-scouting
BI-Anwendungsbereiche
Der Hauptanwendungspartner für die hier beschriebenen Lösungen war und ist der Sie-mens-Konzern. Die Lösungen wurden durch das KI-Start-up Giance, eine deutsch-chinesi-sche Ausgründung des DFKI, für den chinesischen Markt angepasst und weiterentwickelt.
KI-basierte Serviceplattform für Enterprise Intelli- gence
Unsere Global Enterprise Intelligence (GEI) Platform eignet sich nicht nur zur Beobachtung von Zulieferern, sondern wird auch in ande-ren Bereichen eingesetzt, in denen Firmen beobachtet werden müssen wie z. B. Wettbewer-beranalyse, Partnerbetreuung, Key-Account-Management oder Portfolio- Management.
Mehrwert
Knowledge Graph Check & UpdateMithilfe der Neo4J-Graphdatenbanktechnologie werden für die Anwendungen Wis-sensgraphen aufgebaut und ständig um neue Relationen und Eigenschaften der beob-achteten Firmen ergänzt. Die Wissensgraphen dienen nicht nur der Visualisierung der Ergebnisse, sie werden auch zum Entity Linking und zur Erkennung von bereits be-kannter Information verwendet
Neo4J-Graphdatenbanktechnologie werden für die Anwendungen Wissensgraphen aufgebaut und ständig um neue Relationen und Eigenschaften der beobachteten Firmen ergänzt.
Die Wissensgraphen dienen nicht nur der Visualisierung der Ergebnisse, sie werden auch zum Entity Linking und zur Erkennung von bereits bekannter Information verwendet.
Der im Projekt „Smart Data Web“ erstellte öffentliche Teil des Wissensgraphen wurde zudem zum Aufbau eines Siemens-internen Corporate Knowledge Graphen genutzt. Dazu wurden relevante Teilmengen des öffentlichen Wissensgraphen extrahiert und in das ge-schützte Siemens- Netzwerk transferiert. Die internen Datenbanken von Siemens wurden nach RDF konvertiert und zusammen mit dem SDW KG in eine geschützte Datenbank geladen. Weiterhin wurden vom Anwendungsfall getriebene Abfragen erstellt, welche in-terne und offene Daten kombinieren. Der Corporate Knowledge Graph (CKG) ermöglicht eine einheitliche, konsistente und elegante Verknüpfung interner und externer Informatio-nen, ganz im Sinne einer „Enterprise-Intelligence“-Lösung. Über den CKG können Infor-mationen, im konkreten Fall zu Zulieferern, aggregiert und konsolidiert abgerufen und für die Einkaufsabteilungen von Siemens dargestellt werden. Dabei werden interne Kennzah-len, z. B. zum Projektvolumen und zu Bewertungen einzelner Lieferanten, mit aktuellen, automatisch gesammelten, firmen-, produkt- und standortbezogenen Ereignissen aus Nachrichten und anderen Textdatenquellen verknüpft, sodass die Anwender eine Gesamt-sicht auf entscheidungsrelevantes Wissen erhalten
Projekt „Smart Data Web“ Corporate Knowledge Graph (CKG) - ermöglicht eine einheitliche, konsistente und elegante Verknüpfung interner und externer Informationen, ganz im Sinne einer „Enterprise-Intelligence“-Lösung
Semantische Verknüpfung/Ontologie:
Dabei werden interne Kennzah- len, z. B. zum Projektvolumen und zu Bewertungen einzelner Lieferanten, mit aktuellen, automatisch gesammelten, firmen-, produkt- und standortbezogenen Ereignissen aus<br /> Nachrichten und anderen Textdatenquellen verknüpft
Potential: eine Gesamt- sicht auf entscheidungsrelevantes Wissen erhalten.
Semantische Technologien und deren Bausteine werden auch bei der Entwicklung von autonomen und selbstlernenden Systemen eine Schlüsselrolle spielen.
Potential von semantischen Technologien
Grundlage semantischer Technologien sind formale Sprachen und Schlussfolgerungs-mechanismen.
Grundlage semantischer Technologien
Aus diesem Grund definiert das World Wide Web Consortium (W3C) verschiedene Wissensrepräsentationssprachen, die inhaltlich aufeinander aufbauen,
Grund für Standardisierung der Repräsentationssprachen
Data Mining und Knowledge Discovery in Databases be-inhalten Methoden der Informations- und Wissensextraktion aus strukturierten Datensätzen [99].
Data Mining-Systeme
Zudem erfordert die Wissensrepräsentation eine Interoperabilität mit ein-heitlichen und offenen Standards der Wissensbeschreibung, um modelliertes Wissen zwischen verschiedenen Plattformen und Anwendungen zu verbinden und auszutau-schen [93, 106].
Voraussetzung für Wissensrepräsentation: Interoperabilität
ur weiterführenden Analyse von Datenaggregationen werden häufig Online Analytical Processing (OLAP) Systeme
OLAP-Systeme
Entscheidungs- und Führungsinformationssysteme beruhen zumeist auf bereichsbezogenen, integrierten und zeitlich veränderli-chen Datensammlungen, sog. Data Warehouses.
Data-Warehouse-Systeme:
Ergänzt werden die HCM-Suiten dabei, trotz umfangreicher Ausstattung, häufig durch Anwendungen und Apps von kleineren Anbietern, die meist spezialisierte Nischen abdecken. Sie werden mittels Technologien wie der "Integration Platform as a Service" (IPAAS) oder HRSM-Plattformfunktionen eingebunden
HCM-Suiten werden durch IPAAS pder HRSM-PLatfformfunktionen ergänzt.
Denn ohne semantische Interoperabilität der Ma-schinen ist eine intelligente Produktion nicht realisierbar
Bedeutung der semantischen Interoperabilität für die Vernetzung von Produktionsmaschinen und Produkten.
Eine Anwendung kann als semantisch bezeichnet werden, wenn die Bedeutung von Inhalten eine wesentliche Rolle spielt. Das betrifft den Anwen-der und ist unabhängig von der eingesetzten Technologie.
Ab wann gilt eine Anwendung als semantisch?
verringert die Einschränkung auf den Unternehmenskontext Probleme wie Skalierbarkeit, breite Akzeptanz von Ontologien und mangelndes Vertrauen in Informationen.
Potentiale eines CSW
Hürden für einen erfolgreichen Einsatz von semantischen Technologien im Unternehmenskontext
G1-G4
semantische Suche im Museumsportal Berli
Anwendungsfeld
Trendanalyse in Business-Nachrichten
Anwendungsfeld
Um dem entgegenzuwirken, werden im Forschungsbereich Corporate Semantic Web innovative Konzepte und Lösungen für die Gewinnung, Verwaltung und Nutzung von Wissen auf Basis von semantischen Technologien mit speziellem Fokus auf den Unternehmenskontext entwickelt.
Forschungsbereich: Corporate Semantic Web Ziel: Innovative Konzepte und Lösung für die Gewinnung, Verwaltung und Nutzung von Wissen auf Basis von semantischen Technologien im Unternehmenskontext
Jedoch verhindert die Kluft zwischen Forschung und den Bedürfnissen von Unternehmen eine schnelle Adaption von semantischen Technologien durch Unternehmen.
Kluft zwischen Forschung und Bedürfnissen von Unternehmen
Eine semantische Repräsentation von Informationen ist für Unternehmen von Vorteil, da sich diese unter anderem mit anderen externen, semantischen Informationsquellen einfacher integrieren und in Anfragen kombinieren lassen. Somit wird das Ableiten von implizitem Wissen aus Unternehmensdaten begünstigt
Potential: Ableiten von impliziten Wissen
he Insight Engine is now expanding its potentials into the CyberArcheological arena.
IE entfaltet ihr Potential in der CyberArchäologie.
Ein solches Projekt bietet einen multiperspektivischen Ansatz zur Wissensnavigation und der anschließenden Wissensproduktion.
A related project that explores the use of statistical and semantic analysis is The Insight Engine. [11]
IE als Projekt, dass sich mit der Nutzung statistischer und semantischer Analyseverfahren auseinandersetzt.
Seaman’s Insight Engine project enables searches across disciplines to bring textual and media materials into proximity via the linguistic analysis of meta-tags, stored and scraped texts.
Insight Engine; Wissensartefakte werden durch eine anhand von Meta-Tags, gespeicherten und gescrapten Texten einer linguistischen Analyse unterzogen.
By bringing these different kinds of functionalities together in a holistic system, the new technology might enable exploratory relational approaches to differing forms of contemporary and historical data
IE als explorativer, relationaler Ansatz für unterschiedliche Formen von aktuellen und historischen Daten
Rechercheergebnisse, die als relevant eingestuft wurden, können in die Wissensbasiseingeordnet, zur Generierung von neuen Wissensartefakten z. B. in Form von Annota-tionen verwendet oder direkt genutzt werden.
Generierung neuer Wissensartefakte = Form von Annotationen.
Das heißt, Annotationen, die ich gerade anfertige, entsprechen Wissensartefakte.
. Genügt dieWissensbasis nicht den Anforderungen der Aufgabe, ergibt sich ein Lernbedarf, der eineSuche in Suchmaschinen/ -diensten nach weiteren Wissensartefakten einleitet.
Wissensartefakte als eine Erweiterung der Wissensbasis
Insight engines are an evolution of search technologies that provide on-demand and proactiveknowledge discovery and exploration augmented by semantic and machine learning (ML)technologies.
Definition als ein Typ einer Suchtechnologie Zweck: Wissensentdeckung und -exploration.
neuer Typ von Datenplattform für die Speicherung, Integrationund Analyse aller Arten von (Roh-)daten etabliert
Data Lake als ein neuer Typ von Datenplattform
Summa summarum stellen Datenkataloge grundsätzlich die geeignete Werkzeugart zurpraktischen Umsetzung eines ganzheitlichen Metadatenmanagements im Data Lake dar
Datenkataloge
Data-Lake-Management-Plattformen stellen Werkzeugen-Suiten dar, die auf der Basiseines Datenkatalogs weitere Funktionalitäten für das Datenmanagement im Data Lakeintegrieren. Typischerweise geht es um ergänzende Funktionalitäten für ETL, Self-Service-Data-Preparation und Datenföderation (engl. data federation), die eng mit dem Datenkatalogintegriert sind.
Data-Lake-Management-Plattformen
Ergebnis-Metadaten werden häufig in separatenAnalysewerkzeugen, z.B. Data-Mining-Werkzeugen oder Business-Intelligence-Werkzeugen,erzeugt und verwaltet.
Ergebnis-Metadaten - Data-Mining-Werkzeugen oder Business-Intelligence-Werkzeugen
Den Kern für das Metadatenmanagement im Data Lake bilden originäre Data-Lake-Metadaten sowie Ergebnis-Metadaten
Kern für das Metadatenmanagement im Data Lake
Ergebnis-Metadaten stellen Metadaten zu erzeugten Analyseergebnissen, wie z.B.Kennzahlenberichte, Dashboards und Data-Mining-Modelle, dar. Es geht sowohl umAngaben zum Erstellungsprozess der Analyseergebnisse, z.B. verwendete Parameter-werte von Data-Mining-Algorithmen, als auch um Interpretationen der Analyseergeb-nisse, z.B. die Kennzeichnung bestimmter Knoten in einem Entscheidungsbaum
Ergebnis-Metadaten
Operative Metadaten umfassen technische Details zu Datentransformationenund Datenzugriffen, z.B. Informationen über ETL-Jobs, Quellsysteme undZugriffsmuster.
Operative Metadaten
Fachliche Metadaten beschreiben inhaltliche Bedeutungen und Zusammen-hänge der Daten. Dazu gehören beispielsweise Begriffsabgrenzungen, Kenn-zahlendefinitionen, organisatorische Verantwortlichkeiten und konzeptionelleDatenmodelle.
Fachliche Metadaten
Technische Metadaten beziehen sich auf sämtliche technisch-strukturellenAspekte der Daten sowie der zugrundeliegenden Datenhaltungssysteme imData Lake, wie z.B. Tabellenstrukturen, Attributnamen, Wertelisten und Zu-griffsrechte.
Technische Metadaten
Originäre Data-Lake-Metadaten sind Metadaten über die im Data Lake gespeichertenDaten, z.B. Daten in relationalen Datenbanken und Message-Queues des DataLake.
Originäre Data-Lake-Metadaten
aktive und passive Metadaten sowietechnische und betriebswirtschaftliche Metadate
Klassifikation von Metadaten
Metadaten zur Dateninterpre-tation dar und können sich auch auf Analyseergebnisse, wie z.B. Dashboards und Berichtebeziehen
Daten- und Ergebnisinterpretation in Dashboards
Unterstützung derDatenentdeckung, der Beurteilung der Datenherkunft und Datenqualität sowie der Daten-und Ergebnisinterpretation durch Fachanwender.
Aspekte
Metadaten spielen eine zentrale Rollebei der Umsetzung von Self-Service-Szenarien [Te15].
Rolle in Self-Service-Szenarien
Eine zentrale Komponente des Data Lake, die sich über sämtliche Schichten und Kompo-nenten erstreckt, ist das Metadatenmanagement. Das Ziel ist, ein ganzheitliches Metada-tenmanagement für den Data Lake zu realisieren, das sämtliche Kernanforderungen (sieheKapitel 3), sämtliche relevanten Arten von Metadaten (siehe Kapitel 4) über sämtlicheDatenhaltungssysteme des Data Lake mit geeigneten IT-Werkzeugen (siehe Kapitel 5)unterstützt
Metadadatenmanagement-Ansatz
Mit dem zunehmenden Einsatz von Data Lakes ergeben sich in der industriellen Praxiserweiterte Anforderungen, insbesondere hinsichtlich der Sicherstellung von Transparenz,Qualität und Compliance der Daten im Data Lake sowie der Unterstützung von Self-Service-Szenarien für Fachanwender. Diese Anforderungen machen Metadatenmanagement3imData Lake zum kritischen Erfolgsfaktor [QHV16, HGQ16]. Es soll damit verhindert werden,dass aus dem Data Lake ein Datensumpf (engl. data swamp) [HGQ16] entsteht, also eineDatenplattform mit nicht mehr sinnvoll nutzbaren Daten.
Metadatenmanagement für Data Lakes
Mit semantischen Technologien lassen sich aber auch elektronische Dokumente, Texte und Berichte strukturieren und "taggen"
Semantisches Tagging
Sie helfen beispielsweise, die heterogenen Datensilos eines Unternehmens zu erschließen, sie intelligent zu verknüpfen, neu zu interpretieren und im Firmen-Intranet gezielt bereitzustellen.
Potential von semantischen Technologien: Auflösung von heterogenen Daten-Silos Technologie: Linked Data
Darüber hinaus ist ein wichtiger Trend Linked Data im Unternehmensumfeld zu etablieren, um eine neue Generation semantischer, vernetzter Daten-Anwendungen auf Basis des Linked Data Paradigmas zu entwickeln, zu etablieren und erfolgreich zu vermarkten. Im BMBF Wachstumskernprojekt „Linked Enterprise Data Services“ entsteht hierfür beispielsweise eine Technologieplattform, die es Unternehmen ermöglichen soll, neue Dienstleistungen im Web 3.0 zu etablieren.
BMBF Wachstumskernprojekt „Linked Enterprise Data Services
Metadaten bilden die Grundlage zur Beschreibung und Erschließung von Semantik.
Rolle von Metadaten
Semantik alswissenschaftliches Teilgebiet wird heute den Sprachwissenschaften zugeordnet. Sieuntersuchen die Bedeutung von Begriffen, also die Beziehung zwischen Objekten undihren sprachlichen Bezeichnungen oder Zeichen. Semantik spielt in diesem Sinne f ̈urden Wissensbegriff und die Wissensrepr ̈asentation eine wesentliche Rolle
Semantik - Begriff und Zuordnung
. Semantische Technologien bauen auf Wissensrepr ̈asentationssprachen mitformaler Semantik auf, werten diese aus und versetzen den Computer in die Lage,Schlussfolgerungen zu treffen oder Handlungen auszul ̈ose
Baustein: Wissensrepräsentationssprachen
Zur Sicherstellung der Effektivität und Effizienz in der Entwicklung, dem Betrieb und der Nutzung von BI-Systemumwelten ist ein adäquates Management der Metada-ten erforderlich [4].
Leitidee
alle Informationen, die für den Entwurf, die Konstruktion oder Benutzung eines BI-Systems benötigt werden [13].
Metadaten im BI-System
integrierten IT-basierten Management- und Entscheidungsunterstützung (Business Intelligence)
Business Intelligence
Im Zuge stetig steigender Komplexität in Business-Intelligence-Systemen nimmt auch die Bedeutung des Metadatenmanagements (MDM) kon-tinuierlich zu.
Warum Metadatenmanagement?
A Knowledge Graph is a self-descriptive knowledge base where data and itsschema are stored in a graph format, and the relations/connections between data arefirst-class citizens.
Definition: KG
Nevertheless, there still has a long way to go todeal with cumbersome deep architectures and the increasinglygrowing knowledge graphs.
Herausforderung: Skalierbarkeit
Definition 2 (Wang et al. [5]). A knowledge graph is a multi-relational graph composed of entities and relations which areregarded as nodes and different types of edges, respectively.
Strukturelle Definition: KG
Definition 1 (Ehrlinger and W ̈oß [12]). A knowledge graphacquires and integrates information into an ontology and appliesa reasoner to derive new knowledge.
Funktionale Definition: KG
Modern approaches to metadata, ontologies and semantics have revolutionized the design and implementation of Digital Libraries, data repositories and Information Retrieval Systems, while they have made possible the management, analysis and querying of big volumes of heterogeneous data, both structured (linked data) and unstructured (e.g. social data, open data, or social networking interactions). Despite the benefits of these technologies for end users, like improved interaction with information, or better search, interpretation and sharing of data; yet there are many metadata and semantic challenges that need to be overcome in order to improve the user experience. These challenges are multi-dimensional in nature and could span from system architecture and data modeling to user interface design and evaluation, including: the implementation of linked data models in Digital Libraries, the design and evaluation of information retrieval algorithms across heterogeneous collections of structured and unstructured data; the integration, mapping and interoperability of heterogeneous linked data models and ontologies; analysis of social data for the discovery of trends and future predictions; or social network analysis.
Potentiale und Herausforderungen
eehnologisehe Entwieklungen im Hardware- und Softwarebereieh haben Datenbankmanagementsysteme ermoglieht und priigen das Berufsbild des Datenbank›administrators. 2. Dureh die stiindige Weiterentwieklung der Datenbank›teehnologie erweitert sieh der Aufgabenbereieh der Datenbankadministration stetig aUf versehiedenen Ge›bieten wie der Parallelverarbeitung, der Replikation, der verteilten Systeme, des Datenobjektmanagements und des Qualitiitsmanagements. 3. Neue Aufgaben iindern das Berufsbild des Datenbank›administrators vom reinen teehnisehen Spezialisten hin zum Datenmanager. 4. Eine leistungsfiihige, professionelle und mit den not›wendigen Kompetenzen versehene Datenbankadmi›nistration siehert die Verfiigbarkeit und Integritiit der Unternehmensressouree "Daten" iiber lange Zeitriiume und ermoglieht aueh deren Migration auf neue Platt›formen. 5. Nur mit dem Einsatz von professionellen, leistungsfii›higen und integrierten Verwaltungs- und Administrati›ons-Werkzeugen kann eine qualitativ hohe und effl›ziente Dienstleistung Datenbankadministration reali›siert und gesiehert werden. 6. Der Aujbau einer leistungsfiihigen Datenbankadmi›nistration ist der erste Sehritt in Riehtung eines integ›rierten Datenmanagements.
Kernaussagen zur Datenbankadministration
Der hier verwendete Metadatenbegriff beschrankt sich somit nicht nur auf den Bereich des Datenmanagements, sondern um-fasst aile betrieblichen und technischen Fakten im Zusammen-hang mit dem Betrieb von Informationssystemen und den unter-stutzten Geschaftsprozessen.
Metadatenbegriff
Damit dient das Metadatenmanagement in der Hauptsache der Analyse von Daten und Datenbeziehungen. Es kann zur Suche, aber auch zur Auswertung und Optimierung von Prozessen genutzt werden.
Teil 2
Metadatenmanagement bezeichnet die strukturierte und geordnete Datenhaltung von Metadaten. Mit einem etablierten Metadatenmanagement wird in kürzester Zeit die richtige Quelle für benötigte Daten ermittelt.
Stand der Technik Link zur Studie von Capgemini
Metadaten-Management
In einer Studie von Capgemini, die im Zeitraum von September bis Oktober 2020 durchgeführt wurde, gaben rund 36 Prozent der Befragten der 87 IT-Verantwortlichen an, IT-Service für das Metadaten-Management zu nutzen. Der Großteil der Befragten (53,1 Prozent) nutzen IT-Service für DevOps inkl. DataOps, DevSecOps, BizDevOps etc.
87 IT-Verantwortliche in Unternehmen*
Hinweise und Anmerkungen * Laut Quelle: "Personen, die auf Geschäftsführungsebene beziehungsweise oberer Managementebene zu den strategischen IT-Aktivitäten ihres Unternehmens Auskunft geben konnten".e IT-Trends 2021, Seite 36
Veröffentlichungsdatum Februar 2021
Quelle Capgemini
Erhebung durch Capgemini
Veröffentlicht durch Capgemini
Herkunftsverweis StudiRegion Österreich, Deutschland, Schweiz
Erhebungszeitraum September bis Oktober 2020
Anzahl der Befragten
Rund 80 Prozent der im Jahr 2021 Befragten in Deutschland gaben an, Digitalisierung als wichtiges Thema zu betrachten. Jedoch sahen nur rund ein Fünftel der Befragten in der Digitalisierung einen Investitionsschwerpunkt.
Digitalisierung wird von 80 Prozent der Befragten als das Schwerpunktthema für das Personalwesen im Handel im Jahr 2022 angesehen.
Rund 80 Prozent der im Jahr 2021 Befragten in Deutschland gaben an, Digitalisierung als wichtiges Thema zu betrachten. Jedoch sahen nur rund ein Fünftel der Befragten in der Digitalisierung einen Investitionsschwerpunkt.
50 Prozent der Befragten gaben an, dass der Einsatz einer HR-Software im Jahr 2022 von entscheidender Bedeutung für das Personalwesen im Handel sei.
Rund 51 Prozent aller Unternehmen im verarbeitenden Gewerbe in Deutschland nutzten im Jahr 2021 eine CRM-Software zur Erfassung und Speicherung von Kundendaten
CRM-Nutzung zur Erfassung von Kundendaten im Jahr 2021
Verpassen Sie nicht die Revolution der Mobilkommunikation: Modell Y ist für Sie auch bald bei uns erhältlich. Registrieren Sie sich vorab uns sichern Sie sich einen Preisvorteil.Im Falle einer frühzeitigen Vertragsauösung behalten wir uns vor 50 % der vereinbarten monatlichen Fix Rate weiterzuverrechnen.Im Falle einer frühzeitigen Vertragsauösung behalten wir uns vor 50 % der vereinbarten monatlichen Fix Rate weiterzuverrechnen.Im Falle einer frühzeitigen Vertragsauösung behalten wir uns vor 50 % der vereinbarten monatlichen Fix Rate weiterzuverrechnen.Mit FastLane+ brauchen Sie keine Festnetztelefo-nie, um ins Internet einzusteigen. Das FastLane+ Modem verbindet sie direkt mit dem Internet. Mit FastLane+ brauchen Sie keine Festnetztelefo-nie, um ins Internet einzusteigen. Das FastLane+ Modem verbindet sie direkt mit dem Internet. Mit FastLane+ brauchen Sie keine Festnetztelefo-nie, um ins Internet einzusteigen. Das FastLane+ Modem verbindet sie direkt mit dem Internet. Im Falle einer frühzeitigen Vertragsauösung behalten wir uns vor 50 % der vereinbarten monatlichen Fix Rate weiterzuverrechnen. Verpassen Sie nicht die Revolution der Mobilkommunikation: Modell Y ist für Sie auch bald bei uns erhältlich. Registrieren Sie sich vorab uns sichern Sie sich einen Preisvorteil. Semantische Künstliche Intelligenz KI ist in Unternehmen angekommen MIT LINKED DATA UNTERNEHMENSZIELE ERREICHEN Hohe Datenqualität ist grundlegend für hochfunktionale intelligente Systeme. Unternehmen müssen die Arbeit mit Daten nicht nur im Rahmen eines Projektes ernstnehmen, sondern den Datenlebenszyklus als Teil der Datenmanagementstrategie betrachten. Das Verlinken von Daten ist dabei essenziell. STANDARDBASIERTE TECHNOLOGIEN UND MENSCHEN ZUSAMMENBRINGEN Die erfolgreiche Einführung von Künstlicher Intelligenz hängt von der Verfügbarkeit hoch spezialisierter Experten ab. Damit KI-Strategien nachhaltig sind, sollten auch Fachexperten im laufenden Betrieb mitwirken können. Maschinen müssen dahingehend trainiert werden, dass verfügbare Daten in einen organisatorischen und geschäftlichen Mehrwert gewandelt werden. Mit Semantischer Künstlicher Intelligenz werden Datenmodelle für eine breite Anwendungsgruppe transparent und verständlich. Wissensgraphen erhöhen die Datenqualität und bieten damit eine robuste Grundlage für die KI-Strategie und Umsetzung. Das Potential von Künstlicher Intelligenz ist in allen Fachbereichen und Industrien erkennbar. Die Arbeitswelt bendet sich nicht zuletzt durch den Einsatz von intelligenten Software-Lösungen im Umbruch. Automatisierung ist entlang der gesamten Wertschöpfungskette möglich. Doch diese Vielzahl an Möglichkeiten erfordert vom Management eine Priorisierung und einen exzellenten Umsetzungsplan über das ganze Unternehmen hinweg.
Stand der Technik
Wissensgraphen erhöhen die Datenqualität und bieten damit eine robuste Grundlage für die KI-Strategie und Umsetzung.
Nutzen von EKGs
Hypothesis wurde 2011 als non-profit Organisation in San Francisco gegründet. Die Hypothes.is-Server stehen in Kalifornien. Hypothes.is ist Open Source Software und steht unter einer BSD-Lizenz.
-2011 -San Francisco -Open Source -BSD-Lizenz
Hypothes.is
Semantic Web Tool: Hypothes.is
Table 8-2. Various manifestations/eras of the Web and their defining characteristics
Internet bis Web 3.0 (semantic web)
Das Corporate Semantic Web baut auf den existierenden Daten-, Informations- und Wis-senssystemen im Unternehmen auf [1–4]. Es unterstützt und erweitert diese, sowohl für die Erzeugung von relevanten Unternehmensinhalten (Semantic Content) und seman-tischen Wissensbasen (Semantic Knowledge), als auch für die Anwendungen und Ver-braucher (Semantic Applications) die diese Informationen und das semantische Wissen nutzen wollen. Dabei kann es sich sowohl um Mitarbeiter als auch automatisierte Dienste z. B. in Geschäftsprozessen handeln.
Leitidee hinter Corporate Semantic Web
Semantische Technologien, wie z. B. automatische Texterschließung, der Einsatz von semantischen Netzen, Ontologien oder Informations-extraktion mit Hilfe von Wrapper-Technologien,
Vertreter von semantischen Technologien:
Während das Semantic Web im Kern auf Standards zur Beschreibung von Prozessen, Dokumenten und Inhalten sowie entsprechenden Metadaten – vorwiegend vom W3C27 vorge-schlagen – aufsetzt, und damit einen Entwurf für das Internet der nächsten Generation darstellt, adressieren semantische Technologien Herausforde-rungen zur Bewältigung komplexer Arbeitsprozesse, Informationsmengen bzw. RetrievalProzessen und Vernetzungs- oder Integrationsaktivitäten, die nicht nur im Internet, sondern auch innerhalb von Organisationsgrenzen in Angriff genommen werden.
Unterschied zwischen Semantic Web und semantische Technologien
„Die zentrale Anforderung an die nächste Generation von Wissensmanagement-Systemen ist die Möglichkeit, Informationen geeignet zu kombinieren, um damit implizites Wissen ableiten und somit neues Wissen generieren zu können. Se-mantik kann diese Anforderungen erfüllen und bildet somit die Grundlage für eine neue Landschaft an Anwendungen, welche die Informationstechnologie in eine Wissenstechnologie transformiert.“
Potentiale von semantisches Wissensmanagement
Sauermann L (2003) The Gnowsis-Using Semantic Web Technologies to build a Semantic Desktop. Diplomarbeit
Referenz
der Suchende lediglich einen Überblick über die vorhandenen Informa-tionsressourcen zu einem bestimmten Themengebiet erlangen
Anspruch: Überblick über vorhandene Informationen zu einem bestimmten Themengebiet
Das gängige Paradigma des Information Retrievals setzt unter anderem voraus, dass der Informationssuchende tatsächlich genau weiss, was er sucht.
Infomation Retrieval: Informationssuchender weiß, was er sucht.
Daher liegt der Schluss nahe, dass vielmehr die inhaltliche Bedeutung (Semantik) eines Do-kuments und nicht nur die darin verwendeten Zeichenketten im Vordergrund einer in-haltsbasierten Suche stehen müssen
Begründung für die Notwendigkeit einer Semantik
Verantwortlich dafür sind unter anderem sprachliche Mehrdeutigkeiten auf unterschiedlichen semantischen Abstraktionsebenen. Ein Wort selbst kann unterschied-liche Bedeutungen besitzen (Homonymie), so bezeichnet das Wort “Golf“ sowohl eine Sportart, eine Automarke als auch einen Meeresarm.
Mehrdeutigkeiten
Google als prominentester Vertreter der WWW-Suchmaschinen steht heute vielfach in der Kritik, da als Antwort auf eine Suchanfrage oft zuviele nicht relevante Ergebnisse präsentiert werden.
Tim Berners-Lee,
ursprüngliche Entwickler des WWWs,
Die neue Berners-Lee-Vision von Web 3.0 entspringt Bedenken hinsichtlich des Schutzes personenbezogener Daten.
Schutz personenbezogener Daten
Sie stellen sich „Web 3.0“ als einen transparenteren, freiheitsliebenden Raum vor, in dem die Daten und die Sprache einer Person manipulationssicher und unauslöschlich sind und von Tausenden von Blockchain-Ledgern garantiert werden. Unterdessen sieht eine dritte Vision für Web 3.0 vor, dass digitale Informationen von unseren Smartphones und Laptops befreit und in die Umgebung um uns herum eingebettet werden. In diesem sogenannten „Spatial Web“ werden Virtual und Augmented Reality in unser tägliches Leben integriert.
„Spatial Web“
Innerhalb eines Jahres wurde ein neuer Begriff geprägt: Web 3.0, der die Entwicklung des Webs über die 1.0-Ära der HTML-Webseiten und den frühen E-Commerce hinaus in die grelle 2.0-Periode markiert, in der soziale Medien und „benutzergenerierte Inhalte“ geboren wurden. .
Web 3.0
Eine wesentliche Idee von Linked Data ist es, dass Daten und Informationen un-terschiedlichster Herkunft und Struktur auf Basis von Standards interpretiert, (weiter-)verarbeitet, verknüpft und schließlich dem User in einer Form präsentiert werden können,sodass dieser seine Aufwände zur Informationsgewinnung und -aufbereitung verringernkann
Leitidee von Linked Data
bbil-dung 2.8 zeigt einen Überblick über die sogenannte „Linking Open Data Cloud“
Abbildung
Zusätzlich bietet die Abfragesprache SPARQL die Möglichkeit,RDF-kodierte semantische Daten strukturiert abzufragen, wobei bereits (beschränkter)Gebrauch der Möglichkeit logischer Schlussfolgerungen gemacht werden kann.
SPARQL = Abfragesprache von RDF
OWL basiert auf einer speziellen mathematischen Beschreibungslogik (SHROIQ(D)) undstellt ein ausdrucksmächtiges Instrument zur Modellierung von Wissensrepräsentationen(Ontologien) dar [34].
OWL = Instrument zur Modellierung der Wissensrepräsentationen
Allgemeinwerden Fakten im Semantic Web mit Hilfe des Resource Description Frameworks (RDF)formuliert und ausgetauscht, das über die im Technologiestapel darunterliegenden Ko-dierungsformate (XML, Turtle, RDFa, etc.) serialisiert werden kann.
RDF = Fakten formuliert und ausgetauscht
Abbildung 2.3 zeigt den vorgeschlagenen SemanticWeb Technologie-Stapel, der das traditionelle World Wide Web ergänzt, und gibt den ak-tuellen Stand der Standardisierung an.
Ontologien sind explizite,formale Spezifikationen von gemeinsamen Konzeptualisierungen. Unter einer Konzep-tualisierung versteht man ein formales Modell, bestehend aus Klassen, Relationen undInstanzen.
Ontologien= Konzepte
Diese Form von Wissens-repräsentation wird in der Informatik als Ontologie bezeichnet.
Ontologie = Zieldefiniton von Semantic Web
Die Idee hinter dem Semantic Web liegt darin, die Bedeutung von sprachlichen Be-griffen und anderen bedeutungstragenden Entitäten explizit in einer maschinenlesbarenund vom Computer korrekt interpretierbaren Form anzugeben
Semantic Web Technologie-Stack des W3C
Die mit Linked Data beschrittene Lösung macht sich existierende Technologien zu Nut-ze, die vom W3C2 als Semantic Web Technologien standardisiert wurden.
Employing theLinked Data paradigm for enterprise data integration has anumber of advantages:
Unternehmen, Konzepte, Daten und Metadaten können über Abteilungen, Abteilungen, Niederlassungen, Tochtergesellschaften.
Zugang - dereferenzierbar URI/IRIs bieten einen einheitlichen Datenzugriffsmechanismus.
Integration
Das triple-basierte RDF-Datenmodell erleichtert die Integration und das Mapping zwischen verschiedenen anderen Datenmodellen (z.B. XML, RDB, JSON). Kohärenz - Schema, Daten und Metadaten können über System- und Organisationsgrenzen hinweg nahtlos miteinander verknüpft werden Grenzen.
Provenienz
ist gewährleistet, da der Ursprung der Informationen Herkunft der Informationen in den Bezeichnern kodiert ist. Governance - Identifikatoren, Metadaten und Schema können inkrementell und dezentral verwaltet und dezentralisiert verwaltet werden.
Agilität
The publishing and consumptionof vocabulary and URI-based Linked Data adhering to theRDF data model is meanwhile seen as a promising strategy toincrease coherence and facilitate information flows betweenvarious enterprise information systems [11]
Ansatz: Vokabular + URI-based Linked Data + RDF Datenmodell = als vielversprechende Strategie um die Kohärenz zu erhöhen und den Informationsfluss zwischen verschiedenen Informationssystemen in Unternehmen zu verbessern
Despite a long traditionof efforts addressing the data integration challenge compris-ing enterprise architecture, master data management, datawarehouses, mediators and service oriented architectures, theintegration of such enterprise information and datasources isstill a major challenge [4].
Herausforderungen:
Large enterprises and organizations use a vast variety ofdifferent information systems, databases, portals, wikis andKnowledge Bases [KBs] combining hundreds and thousandsof data and information sources.
Problemstellung: Big Data
Enterprise Knowledge Graphs (EKGs) mightbe considered as an embodiment of LED
Enterprise Knowledge Graphs (EKGs) als eine Verkörperung von LED
Linked Enterprise Data
Thema
Sören Auer
The unified approachhas the advantage, that the enterprise has more control overthe data and quality, and the data querying is significantlyfaster.
REFERENCES[1] C. Bizer, J. Lehmann, G. Kobilarov, S. Auer, C. Becker, R. Cyganiak,and S. Hellmann. Dbpedia-a crystallization point for the web of data.Web Semantics: science, services and agents on the world wide web,7(3):154–165, 2009.[2] D. Calvanese, M. Giese, D. Hovland, and M. Rezk. Ontology-basedintegration of cross-linked datasets. In Proceedings of the 14th Interna-tional Semantic Web Conference (ISWC). Springer, 2015.[3] X. Dong, E. Gabrilovich, G. Heitz, and W. Horn. Knowledge vault: Aweb-scale approach to probabilistic knowledge fusion. In Proceedingsof the 20th ACM SIGKDD international conference on Knowledgediscovery and data mining, pages 601–610, 2014.[4] P. Frischmuth, S. Auer, S. Tramp, J. Unbehauen, K. Holzweißig,and C. Marquardt. Towards linked data based enterprise informationintegration. In S. Coppens, K. Hammar, M. Knuth, and et al., editors,Proceedings of the Workshop on Semantic Web Enterprise Adoption andBest Practice (ISWC 2013), 2013. CEUR-WS.org, 2013.[5] R. Isele and C. Bizer. Active learning of expressive linkage rules usinggenetic programming. Web Semantics: Science, Services and Agents onthe World Wide Web, 23:2–15, 2013.[6] L. Masuch. Enterprise knowledge graph - one graph to connect themall. 2014.[7] P. N. Mendes, H. Mühleisen, and C. Bizer. Sieve: Linked data qualityassessment and fusion. In Proceedings of the 2012 Joint EDBT/ICDTWorkshops, pages 116–123, 2012.[8] J. Michelfeit, T. Knap, and M. Neˇcask `y. Linked data integration withconflicts. arXiv preprint arXiv:1410.7990, 2014.[9] A.-C. Ngonga Ngomo and S. Auer. Limes - a time-efficient approachfor large-scale link discovery on the web of data. In Proceedings ofIJCAI, 2011.[10] N. F. Noy. Semantic integration: a survey of ontology-based approaches.ACM Sigmod Record, 33(4):65–70, 2004.[11] T. Pellegrini, H. Sack, and S. Auer, editors. Linked Enterprise Data.X.media.press. Springer, 2014.[12] A. Schultz, A. Matteini, R. Isele, P. N. Mendes, C. Bizer, and C. Becker.Ldif-a framework for large-scale linked data integration. In 21stInternational World Wide Web Conference (WWW 2012), DevelopersTrack, Lyon, France, 2012.
However, federated querying andaccess control over fine-grained datasources drastically impedethe performance.
he transitionary approach is advisable when datasecurity plays a vital role.
In general, a federated approach will be advan-tageous if the enterprise aims to continuously ingest updatesand new additions from public LOD sources.
Nevertheless, acertain overhead for query expansion and entailment regimesis required.
Enterprise Knowledge Graphs
The unified approach has the advantage, that the enterprise has more control over the data and quality, and the data querying is significantly faster.
Enterprise Knowledge Graphs are the next stage in theevolution of knowledge management systems.
Enterprise Knowledge Graphs are the next stage in the evolution of knowledge management systems.
Knowledge Graph Embedding: A Survey of Approaches and Applications
PDF zur Studie
Knowledge graph (KG) embedding is to embed components of a KG including entities and relations into continuous vector spaces, so as to simplify the manipulation while preserving the inherent structure of the KG. It can benefit a variety of downstream tasks such as KG completion and relation extraction, and hence has quickly gained massive attention. In this article, we provide a systematic review of existing techniques, including not only the state-of-the-arts but also those with latest trends. Particularly, we make the review based on the type of information used in the embedding task. Techniques that conduct embedding using only facts observed in the KG are first introduced. We describe the overall framework, specific model design, typical training procedures, as well as pros and cons of such techniques. After that, we discuss techniques that further incorporate additional information besides facts. We focus specifically on the use of entity types, relation paths, textual descriptions, and logical rules. Finally, we briefly introduce how KG embedding can be applied to and benefit a wide variety of downstream tasks such as KG completion, relation extraction, question answering, and so forth.
Bei der Einbettung von Wissensgraphen (KG) werden die Komponenten eines KG, einschließlich Entitäten und Beziehungen, in kontinuierliche Vektorräume eingebettet, um die Bearbeitung zu vereinfachen und gleichzeitig die inhärente Struktur des KG zu erhalten. Sie kann für eine Vielzahl von nachgelagerten Aufgaben wie KG-Vervollständigung und Relationsextraktion von Nutzen sein und hat daher schnell große Aufmerksamkeit erlangt. In diesem Artikel geben wir einen systematischen Überblick über die vorhandenen Techniken, wobei wir nicht nur den aktuellen Stand der Technik, sondern auch die neuesten Trends berücksichtigen. Dabei wird insbesondere auf die Art der bei der Einbettung verwendeten Informationen eingegangen. Zunächst werden Techniken vorgestellt, die die Einbettung nur anhand der in der KG beobachteten Fakten durchführen. Wir beschreiben den allgemeinen Rahmen, das spezifische Modelldesign, typische Trainingsverfahren sowie die Vor- und Nachteile solcher Techniken. Danach werden Techniken diskutiert, die neben Fakten auch zusätzliche Informationen einbeziehen. Wir konzentrieren uns insbesondere auf die Verwendung von Entitätstypen, Beziehungspfaden, textuellen Beschreibungen und logischen Regeln. Abschließend stellen wir kurz vor, wie die KG-Einbettung auf eine Vielzahl von nachgelagerten Aufgaben wie KG-Vervollständigung, Beziehungsextraktion, Beantwortung von Fragen usw. angewendet werden kann und davon profitiert.
Special Issue on Machine Learning and Knowledge Graphs
Machine Learning and Knowledge Graphs
Practical guidance on KR, knowledge graphs, semantic technologies, and KBpedia
Titel: A knowledge representation practionary Autor: Michael K. Bergman