Use Oracle Data Pump (2024)

Oracle Data Pump bietet eine sehr schnelle Bulkverschiebung von Daten und Metadaten zwischen Oracle-Datenbanken und Autonomous Database on Dedicated Exadata Infrastructure.

Mit Data Pump Import können Sie Daten aus Data Pump-Dateien in Oracle Cloud Infrastructure Object Storage und Oracle Cloud Infrastructure Object Storage Classic importieren. Sie können Daten im Cloud-Objektspeicher speichern und mit Oracle Data Pump Daten in Autonomous Database laden.

Hinweis

Als Alternative zum Lesen der folgenden Themen können Sie die Schritte unter Lab 9: Migrate with Data Pump in Oracle Autonomous Database Dedicated for Fleet Administrators Workshop ausprobieren.

  • Daten aus vorhandener Oracle-Datenbank exportieren
    Zunächst exportieren Sie die vorhandenen Oracle Database-Schemas per Oracle Data Pump-Export. Anschließend migrieren Sie sie mit Oracle Data Pump Import in Autonomous Database.
  • Exportdateien in Cloud-Objektspeicher hochladen
    Bevor Sie die aus der Oracle-Quelldatenbank exportierten Daten importieren können, müssen Sie die Exportdateien in den Cloud-Objektspeicher hochladen.
  • Daten mit Oracle Data Pump importieren
    Oracle empfiehlt, die neueste Oracle Data Pump-Version für den Import von Daten aus Data Pump-Dateien in Autonomous Database zu verwenden, da diese Verbesserungen und Fixes enthält.
  • Auf Logdateien für Data Pump-Import zugreifen
    Die Logdateien für Data Pump-Importvorgänge werden in dem Verzeichnis gespeichert, das Sie mit dem Data Pump-Parameter impdp verzeichnis angeben.

Übergeordnetes Thema: Daten in autonome Datenbank verschieben

Daten aus vorhandener Oracle-Datenbank exportieren

Zunächst exportieren Sie per Oracle Data Pump-Export die vorhandenen Oracle-Datenbankschemas. Anschließend migrieren Sie sie mit Oracle Data Pump Import in Autonomous Database.

Oracle empfiehlt die Verwendung der folgenden Data Pump-Exportparameter für eine schnellere und einfachere Migration in Autonomous Database:

exclude=cluster, db_linkparallel=nschemas=schema namedumpfile=export%u.dmp

Der Oracle Data Pump-Export bietet mehrere Exportmodi. Oracle empfiehlt, den Schemamodus für die Migration zu Autonomous Database zu verwenden. Mit dem Parameter schemas können Sie die zu exportierenden Schemas auflisten.

Exportieren Sie die Schemas für eine schnellere Migration in mehrere Data Pump-Dateien, und verwenden Sie die Parallelität. Sie können das Namensformat der zu verwendenden Dumpdatei mit dem Parameter dumpfile angeben. Setzen Sie den Parameter parallel mindestens auf die Anzahl der CPUs der autonomen Datenbank.

Die Parameter exclude und data_options stellen sicher, dass die in Autonomous Database nicht verfügbaren Objekttypen nicht exportiert und Tabellenpartitionen gruppiert werden, sodass sie schneller in Autonomous Database importiert werden können.

Hinweis

Oracle empfiehlt, die aktuellen Statistiken zu erfassen, bevor Sie den Befehl expdp ausführen. Das Package dbms_stats stellt mehrere Prozeduren zur Erfassung der neuesten Statistiken bereit. Statistiken werden automatisch der Exportdumpdatei hinzugefügt. Sie helfen dabei, die Größe von Objekten zu bestimmen und die Parallelität während des Imports zu optimieren. Weitere Informationen finden Sie unter Verwendungshinweise zu DBMS_STATS.

Im folgenden Beispiel wird das SH-Schema aus einer Oracle-Quelldatenbank zur Migration zu einer autonomen Datenbank mit 16CPUs exportiert:

expdp sh/sh@orcl \exclude=cluster, db_link \parallel=16 \schemas=sh \dumpfile=export%u.dmp

Je nach Ihren Anforderungen können Sie andere Data Pump-Exportparameter wie compression verwenden. Weitere Informationen zum Oracle Data Pump-Export finden Sie unter Oracle Database-Utilitys.

Übergeordnetes Thema: Oracle Data Pump verwenden

Exportdateien in Cloud-Objektspeicher hochladen

Bevor Sie die aus der Oracle-Quelldatenbank exportierten Daten importieren können, müssen Sie die Exportdateien in den Cloud-Objektspeicher hochladen.

Sie können die Exportdateien in einen vorhandenen Speicher-Bucket in Oracle Cloud Infrastructure Object Storage oder einen vorhandenen Speichercontainer in Oracle Cloud Infrastructure Object Storage Classic hochladen. Alternativ können Sie wie folgt einen neuen Speicher-Bucket erstellen und die Exportdateien in diesen hochladen.

  1. Melden Sie sich unter cloud.oracle.com bei Ihrem Oracle Cloud-Account an.

  2. Wählen Sie in der linken Navigationsliste von Oracle Cloud Infrastructure "Object Storage" aus, und wählen Sie in der Unterliste "Object Storage" aus.

  3. Wählen Sie ein Compartment aus, in dem der Speicher-Bucket erstellt werden soll.

  4. Klicken Sie auf Bucket erstellen.

  5. Geben Sie im Dialogfeld "Bucket erstellen" dem Bucket einen Namen, und klicken Sie auf Bucket erstellen.

  6. Nachdem der Bucket erstellt wurde, klicken Sie in der Liste der Buckets auf seinen Namen, um die Seite "Bucket-Details" anzuzeigen.

  7. Klicken Sie im Feld "Objekte" auf Objekte hochladen.

  8. Klicken Sie im Dialogfeld "Objekte hochladen" im Feld "Dateien auf dem Rechner auswählen" auf den Link Dateien auswählen.

  9. Navigieren Sie im Dateibrowser zu den Exportdateien, und wählen Sie sie aus. Klicken Sie dann auf Öffnen.

  10. Klicken Sie im Dialogfeld "Objekte hochladen" auf Objekte hochladen, um mit dem Hochladen der ausgewählten Dateien zu beginnen.

  11. Schließen Sie nach Abschluss der Uploads das Dialogfeld "Objekte hochladen".

Übergeordnetes Thema: Oracle Data Pump verwenden

Daten mit Oracle Data Pump importieren

Oracle empfiehlt, die neueste Oracle Data Pump-Version für den Import von Daten aus Data Pump-Dateien in Autonomous Database zu verwenden, da diese Verbesserungen und Fixes für eine bessere Erfahrung enthält.

Laden Sie die neueste Version des Oracle Instant Client Basic Package und des Toolpackage (inklusive Oracle Data Pump) für Ihre Plattform unter Oracle Instant Client-Downloads herunter. Die Installationsschritte, die nach dem Herunterladen von Oracle Instant Client erforderlich sind, finden Sie in den Installationsanweisungen auf der Downloadseite für die Plattforminstallation.

In Oracle Data Pump Version 18.3 und höher authentifiziert das Argument credential Data Pump beim Cloud Object Storage-Service, den Sie für Ihre Quelldateien verwenden. Das Argument dumpfile ist eine durch Komma getrennte Liste von URLs für die Data Pump-Dateien.

Die Data Pump Import-Versionen 12.2.0.1 und früher enthalten nicht den Parameter credential. Wenn Sie eine ältere Version von Data Pump Import verwenden, müssen Sie eine Standardzugangsdateneigenschaft für Autonomous Database definieren und das Schlüsselwort default_credential im Parameter dumpfile verwenden.

Wenn die Quelldateien in Oracle Cloud Infrastructure Object Storage gespeichert sind, können Sie in Oracle Data Pump native Oracle Cloud Infrastructure-URIs oder die Swift-URIs verwenden. Details zu diesen URI-Formaten finden Sie unter URI-Formate für Cloud-Objektspeicher.

  1. Speichern Sie die Zugangsdaten für den Cloud-Objektspeicher mit der Prozedur DBMS_CLOUD.CREATE_CREDENTIAL. Beispiel:
    BEGINDBMS_CLOUD.CREATE_CREDENTIAL( credential_name => 'DEF_CRED_NAME', username => 'adb_user@oracle.com', password => 'password' );END;/

    Die Werte, die Sie für username und password angeben, hängen vom verwendeten Cloud-Objektspeicherservice ab:

    • Oracle Cloud Infrastructure Object Storage: username ist Ihr Oracle Cloud Infrastructure-Benutzername und password Ihr Oracle Cloud Infrastructure-Authentifizierungstoken. Siehe Mit Authentifizierungstoken arbeiten.

    • Oracle Cloud Infrastructure Object Storage Classic: username ist Ihr Oracle Cloud Infrastructure Classic-Benutzername und password Ihr Oracle Cloud Infrastructure Classic-Kennwort.

  2. Wenn Sie Oracle Data Pump Version 12.2.0.1 oder früher verwenden, legen Sie die Zugangsdaten als Standardzugangsdaten für Autonomous Database als ADMIN-Benutzer fest. Beispiel:
    alter database property set default_credential = 'ADMIN.DEF_CRED_NAME'
  3. Führen Sie Data Pump Import aus, und setzen Sie den Parameter dumpfile auf die Liste der Datei-URLs in Ihrem Cloud-Objektspeicher.
    • Oracle Data Pump Version 18.3 oder höher: Setzen Sie den Parameter credential auf den Namen der Zugangsdaten, die Sie in Schritt1 erstellt haben. Beispiel:

      impdp admin/password@ATPC1_high \ credential=def_cred_name \ dumpfile=https://swiftobjectstorage.us-phoenix-1.oraclecloud.com/v1/idthydc0kinr/mybucket/export%u.dmp \ parallel=16 \ transform=segment_attributes:n \ exclude=cluster, db_link

      In diesem Beispiel ist dumpfile eine Oracle Cloud Infrastructure-Swift-URI, die alle Dateien angibt, deren Namen mit export<number>.dmp im Bucket mybucket in der Region us-phoenix-1 übereinstimmen. (idthydc0kinr ist der Objektspeicher-Namespace, in dem sich der Bucket befindet.)

    • Oracle Data Pump Version 12.2.0.1 oder früher: Beginnen Sie den Wert des Parameters dumpfile mit dem Schlüsselwort default_credential und einem Doppelpunkt. Beispiel:

      impdp admin/password@ATPC1_high \ dumpfile=default_credential:https://swiftobjectstorage.us-phoenix-1.oraclecloud.com/v1/idthydc0kinr/mybucket/export%u.dmp \ parallel=16 \ transform=segment_attributes:n \ exclude=cluster, db_link

    Um die beste Importperformance zu erzielen, verwenden Sie den Datenbankservice high für die Importverbindung, und setzen Sie den Parameter parallel auf die Anzahl der CPUs Ihrer Datenbank.

    Informationen zum URL-Format der Dumpdatei für verschiedene Cloud-Objektspeicherservices finden Sie unter URI-Formate für Cloud-Objektspeicher.

    Hinweis

    Um einen vollständigen Import durchzuführen oder Objekte zu importieren, deren Eigentümer andere Benutzer sind, benötigen Sie die Rolle DATAPUMP_CLOUD_IMP.

    Informationen zu nicht zulässigen Objekten in Autonomous Database finden Sie unter Einschränkungen bei der Verwendung von SQL-Befehlen.

    Ausführliche Informationen zu Oracle Data Pump Import-Parametern finden Sie unter Oracle Data Pump Import in Oracle Database-Utilitys.

Übergeordnetes Thema: Oracle Data Pump verwenden

Auf Logdateien für Data Pump-Import zugreifen

Die Logdateien für Data Pump-Importvorgänge werden in dem Verzeichnis gespeichert, das Sie mit dem Data Pump-Parameter impdp Verzeichnis angeben.

Um auf die Logdatei zuzugreifen, müssen Sie die Logdatei mit der Prozedur DBMS_CLOUD.PUT_OBJECT in den Cloud-Objektspeicher verschieben. Beispiel: Der folgende PL/SQL-Block verschiebt die Datei import.log in den Cloud-Objektspeicher:

BEGIN DBMS_CLOUD.PUT_OBJECT( credential_name => 'DEF_CRED_NAME', object_uri => 'https://objectstorage.us-ashburn-1.oraclecloud.com/n/namespace-string/b/bucketname/o/import.log', directory_name => 'DATA_PUMP_DIR', file_name => 'import.log');END;/

In diesem Beispiel ist namespace-string der Oracle Cloud Infrastructure Object Storage-Namespace und bucketname der Bucket-Name. Weitere Informationen finden Sie unter Object Storage-Namespaces.

Weitere Informationen finden Sie unter DBMS_CLOUD für Objekte und Dateien.

Übergeordnetes Thema: Oracle Data Pump verwenden

Use Oracle Data Pump (2024)

References

Top Articles
R6 Games Roblox
Zillow Rockport Ma
Dainty Rascal Io
Use Copilot in Microsoft Teams meetings
Www.mytotalrewards/Rtx
Xre-02022
Northern Counties Soccer Association Nj
Find All Subdomains
Hertz Car Rental Partnership | Uber
35105N Sap 5 50 W Nit
Draconic Treatise On Mining
Slay The Spire Red Mask
Bustle Daily Horoscope
Campaign Homecoming Queen Posters
PGA of America leaving Palm Beach Gardens for Frisco, Texas
World of White Sturgeon Caviar: Origins, Taste & Culinary Uses
Mercy MyPay (Online Pay Stubs) / mercy-mypay-online-pay-stubs.pdf / PDF4PRO
MindWare : Customer Reviews : Hocus Pocus Magic Show Kit
Pac Man Deviantart
Craftology East Peoria Il
Les Rainwater Auto Sales
Harem In Another World F95
Puretalkusa.com/Amac
Conan Exiles: Nahrung und Trinken finden und herstellen
Amazing deals for DKoldies on Goodshop!
Silive Obituary
Aps Day Spa Evesham
Craigslist Clinton Ar
Clare Briggs Guzman
Craigslist Lewes Delaware
All Breed Database
Jobs Hiring Near Me Part Time For 15 Year Olds
Shoe Station Store Locator
Il Speedtest Rcn Net
Kroger Feed Login
JVID Rina sauce set1
Combies Overlijden no. 02, Stempels: 2 teksten + 1 tag/label & Stansen: 3 tags/labels.
Fridley Tsa Precheck
Shaman's Path Puzzle
Babbychula
2024 Ford Bronco Sport for sale - McDonough, GA - craigslist
Autozone Locations Near Me
„Wir sind gut positioniert“
Lake Kingdom Moon 31
Iman Fashion Clearance
Dancing Bear - House Party! ID ? Brunette in hardcore action
Walmart Listings Near Me
FactoryEye | Enabling data-driven smart manufacturing
Enjoy Piggie Pie Crossword Clue
Rétrospective 2023 : une année culturelle de renaissances et de mutations
How Did Natalie Earnheart Lose Weight
Naughty Natt Farting
Latest Posts
Article information

Author: Carlyn Walter

Last Updated:

Views: 5619

Rating: 5 / 5 (70 voted)

Reviews: 85% of readers found this page helpful

Author information

Name: Carlyn Walter

Birthday: 1996-01-03

Address: Suite 452 40815 Denyse Extensions, Sengermouth, OR 42374

Phone: +8501809515404

Job: Manufacturing Technician

Hobby: Table tennis, Archery, Vacation, Metal detecting, Yo-yoing, Crocheting, Creative writing

Introduction: My name is Carlyn Walter, I am a lively, glamorous, healthy, clean, powerful, calm, combative person who loves writing and wants to share my knowledge and understanding with you.