Al momento non è possibile inviare moduli sul sito di supporto per pianificare la manutenzione. Se necessiti di assistenza immediata, contatta il supporto tecnico. Ci scusiamo per il disagio.
Questo articolo ti è servito per risolvere il problema?
Seleziona valutazione
Titolo
Importing from Apache Hadoop Hive DDL, getting error :FATAL [MBCM_F0029] Input model is null
Descrizione
Importing from Apache Hadoop Hive DDL, getting error :FATAL [MBCM_F0029] Input model is null
Risoluzione
I am using the bridge to import Apache Hadoop HiveQL DDL as SQL DDL and I amgetting the error:
ERROR:Could not find required directory: directory path FATAL:[MBCM_F0029] Input model is null
Please make sure
follow the instruction to generate the DDL (HQL) use the utility provided at '${MODEL_BRIDGE_HOME}/bin/hive_generate_ddl.sh'. Place this utility on the hive cluster (should not matter where). Once there, remotely connect with a bash shell and execute the utility. It will extract the DDL from all the schemas in the cluster into a file name 'tables.hql'.
In the Import Wizard, make sure the file path point to a directory (NOT the file). The directory should only contains tables.hql file
Feedback inviato
Questo articolo ti è servito per risolvere il problema?
Data di creazione: 5/18/2017 Ultimo aggiornamento: 5/7/2023
Thank you for your feedback for Topic Request
Your Request will be reviewed by our technical reviewer team and, if approved, will be added as a Topic in our Knowledgebase.
Questo è il portale del supporto
Puoi trovare aiuto e supporto online per Quest *prodotto* sul sito di supporto di un affiliato. Fai clic su Continua per essere reindirizzato ai contenuti e all'assistenza corretti per *prodotto*.
Cerca in tutti gli articoli
Internet Explorer 8, 9 e 10 non sono più supportati
Il portale Quest Software non supporta più Internet Explorer 8, 9, e 10. Si consiglia di aggiornare il browser all'ultima versione di Internet Explorer o Chrome.
use the utility provided at '${MODEL_BRIDGE_HOME}/bin/hive_generate_ddl.sh'. Place this utility on the hive cluster (should not matter where). Once there, remotely connect with a bash shell and execute the utility. It will extract the DDL from all the schemas in the cluster into a file name 'tables.hql'.