Lösung

Integration von Daten

Wir entwickeln und erstellen grundlegende Datenplattformen zur Unterstützung der unternehmensweiten digitalen Transformation.

  • Datenplattformen in RDBMS(Oracle, SQL Server, DB2, etc.)
  • DWH-Geräte(Netezza, SAP HANA, Teradata)
  • Cloud-basiertes DW(AWS, HP Vertica, etc.)
  • KEINE SQL-Plattformen(einschließlich Hadoop, neo4j, MongoDB, usw.)

Wir verfügen über umfassende Erfahrung in der Extraktion, Transformation und dem Laden (ETL) von Daten aus einer Vielzahl von Quellen, darunter Legacy-Anwendungen, ERP-Systeme, CRM- und andere Webinhalte, relationale Standarddatenbanken, HDFS, unstrukturierte Daten, einschließlich sozialer Medien, Blogs, Maschinendaten, NoSQL-Datenbanken, MongoDB, Cassandra, Hbase, Cloud-basierte On-Premise-Anwendungen, Dateien (z. B. XML, Excel, CSV, flache Dateien) und Webservice-APIs.

Unsere spezialisierten Fähigkeiten im Bereich der Unternehmensdatenintegration umfassen modernste ETL-Tools wie DataStage, Oracle Data Integrator, MS-SSIS, Informatica, Talend, AbInitio und ähnliche, die die Bereitstellung skalierbarer und zuverlässiger Datenintegrationslösungen für unsere Kunden in aller Welt unterstützen. Die Datenintegrationsdienste von Virtusa erfassen strukturierte und unstrukturierte Daten aus praktisch jeder Quelle, integrieren sie und stellen sie in einer Hochleistungsumgebung in hoher Qualität bereit.

Unsere Erfolgsgeschichten:

  • Cloud-basierte analytische Datenplattform für einen führenden Anbieter von Preisvergleichen:Entwicklung einer cloud-basierten analytischen Datenplattform der nächsten Generation durch neue Unternehmensdatenmodelle - konsolidiert, angepasst und konsistent.
  • Agiler Data Lake zur effektiven Monetarisierung von Daten für einen führenden Anbieter von Analysen im Gesundheitswesen:Entwicklung eines Hadoop-basierten agilen Data Lake, Rationalisierung der Datenaufnahme, verteilte Datenspeicherung 'Data Lake (HDFS) und Standardisierung und Bereitstellung skalierbarer Datenverarbeitung.
  • Hadoop-Datenplattform für ein führendes Medien- und Informationsunternehmen:Entwicklung eines Big-Data-basierten Integrated Metrics System (IMS) zur Bereitstellung von Forschungsmetriken und zur erheblichen Reduzierung der Datenverarbeitungszeit.
  • Appliance-Migration ' Oracle zu Netezza für ein führendes Versicherungsunternehmen:Bereitstellung einer Konsolidierungs- und Migrationsstrategie für Datenspeicher von der Oracle- zur Netezza-Plattform.
  • Implementierung eines Kundendatenspeichers für ein führendes Telekommunikationsunternehmen:Konsolidierung von Kundendaten aus über 50 verschiedenen Altsystemen, um eine 360-Grad-Ansicht des Kundenprofils zu erstellen.
Kompetenzzentrum für Datenintegration

Unsere Abteilung für Datenintegration bietet ein umfassendes Spektrum an Dienstleistungen, um unseren Kunden die benötigten Informationen im richtigen Format zur Verfügung zu stellen, damit sie ihre Zeit effektiv für präzise und zeitnahe Geschäftsentscheidungen nutzen können.

Unsere Datenintegrationsdienste basieren auf branchenüblichen Best Practices, Methoden, umfangreichem Fachwissen und Erfahrungen aus ähnlichen Projekten.

Unsere Datenintegrationslösungen werden von einem engagierten Pool von Datenintegrationsspezialisten, Domänenexperten, Geschäftsanalytikern und technischen Architekten bereitgestellt, die durch unsere bewährten CoE-Prozesse unterstützt werden.

  • Mehr als 500 Experten für Datenintegration in unserem CoE bieten High-End-Design, Architektur und technische Führung

  • Bewährte Lösungsbeschleuniger und Frameworks steigern die Produktivität, senken die Gesamtkosten für EIM-Implementierungen und verkürzen die Markteinführungszeit

  • Wiederverwendbare Komponenten, die die Projektabwicklung beschleunigen

  • Erhebliche Kostensenkung durch unser globales Liefermodell

  • Richtiges, kundenorientiertes Beziehungsmanagement mit hohem Kontaktwert, das eine hervorragende Customer Experience bietet

Tools und Beschleuniger

Bereichsbezogene Datenmodellbeschleuniger, die auf der Ebene des logischen Datenmodells entwickelt werden und die Möglichkeit bieten, später benötigte Datenelemente hinzuzufügen

  • Datenmodell-Beschleuniger: Bereichsbezogene Datenmodellbeschleuniger, entwickelt auf der Ebene des logischen Datenmodells und mit der Möglichkeit, Datenelemente hinzuzufügen, die später benötigt werden
  • ETL-Beschleuniger:
    • Top N zeitaufwendige Aufgabenüberwachung: Automatisierter Mechanismus zur Identifizierung von ressourcenintensiven ETL-Jobs, um Maßnahmen zur Leistungsoptimierung einzuleiten
    • Job-Vergleichstool: Automatisiert die Verfolgung von Versionsänderungen für ETL-Jobs, automatisierter Mechanismus zum Vergleich der Versionen eines Jobs, was ein schnelles Rollout/Rollback von Jobs ermöglicht, die aus einer Änderungsanfrage resultieren
    • Analyse-Tool für die Auswirkungen: Entwicklungshilfe für Auswirkungsanalyse, Suchdienstprogramme, Parameterliste und Auftragskomplexität
    • ETL-Testautomatisierungstool: Automatisierter Weg zum Vergleich und zur Validierung von Metadaten, automatisierter Verifizierungs- und Validierungsprozess, der 100%ige Genauigkeit in kürzerer Zeit gewährleistet
    • ETL-Aufträge / Ladestatistik-Tool: Automatisiert die Überwachung von DataStage-Aufträgen über die UNIX-Scripting-Lösung, um die Statistik des Auftrags zu erfassen, sobald die tägliche Ladung abgeschlossen ist
    • DB lehnt das Erfassungswerkzeug ab: Erfasst die Datensätze, die beim Laden aufgrund von Datenbankbeschränkungen verpasst wurden, identifiziert unvollständige Datenladevorgänge auf Tabellen-/Zeilenebene und liefert eine Zusammenfassung darüber, warum eine Datenabstimmung fehlschlägt
    • Abstimmung von Attributen: Bietet einen automatisierten On-Demand-Flash der tatsächlichen Attributanzahl über Projekte hinweg, regulationsbasierter Workflow mit konfigurierbaren Zählalgorithmen, die Abgleichszeit sparen
  • ETL-Code-Überprüfungs-Tool:
    • Ermöglicht eine Standardisierung, die die Qualität des Codes und die effektive Umsetzung der Aufgaben gewährleistet
    • Skalierbare und konfigurierbare Lösung, die über Projekte und Szenarien hinweg erweitert werden kann
    • Batch Processing ermöglicht die Überprüfung mehrerer Talend-Objekte auf einmal
    • Liefert genaue Fehlerdetails zu den fehlgeschlagenen Objekten im Code-Review-Bericht
    • Produktivitätssteigerung um das 8-fache
    • Möglichkeit zur Überprüfung von Änderungen, die sich auf mehrere Aufträge auswirken
  • Tool für Datenvalidierungstests:
    • Die Datenüberprüfung umfasst die Überprüfung, ob alle Datensätze, alle Felder und vollständige Daten für jedes Feld geladen wurden, sowie die Überprüfung von Quell- und Zieldaten auf Anzahl und Vollständigkeit.
    • Automatisierte Möglichkeit zum Vergleich und zur Validierung von Metadaten
  • Tools zur Liefersicherung, Vorlagen:
    • Checkliste für die EIM-Entwurfsprüfung
    • INFA, Oracle, Teradata, Talend, Ab Initio, DataStage – Entwicklungsstandards und bewährte Verfahren
    • Checkliste für die Entwicklung und Bereitstellung Checkliste
  • ETL-Migrationsrahmen
    • Gemeinsamer ETL-Migrationsrahmen, der toolübergreifend erweitert werden kann: SSIS zu Informatica und Ab Initio zu Talend, usw.
Zugehörige Inhalte