O envio de formulários no site de suporte está temporariamente indisponível para manutenção programada. Se precisar assistência imediata, entre em contato com o suporte técnico. Lamentamos o inconveniente.
Importing from Apache Hadoop Hive DDL, getting error :FATAL [MBCM_F0029] Input model is null
Descrição
Importing from Apache Hadoop Hive DDL, getting error :FATAL [MBCM_F0029] Input model is null
Resolução
I am using the bridge to import Apache Hadoop HiveQL DDL as SQL DDL and I amgetting the error:
ERROR:Could not find required directory: directory path FATAL:[MBCM_F0029] Input model is null
Please make sure
follow the instruction to generate the DDL (HQL) use the utility provided at '${MODEL_BRIDGE_HOME}/bin/hive_generate_ddl.sh'. Place this utility on the hive cluster (should not matter where). Once there, remotely connect with a bash shell and execute the utility. It will extract the DDL from all the schemas in the cluster into a file name 'tables.hql'.
In the Import Wizard, make sure the file path point to a directory (NOT the file). The directory should only contains tables.hql file
Criado em: 5/18/2017 Última atualização em: 5/7/2023
Thank you for your feedback for Topic Request
Your Request will be reviewed by our technical reviewer team and, if approved, will be added as a Topic in our Knowledgebase.
Bem-vindo ao Suporte
Você pode encontrar ajuda de suporte on-line para *produto* da Quest em um local de suporte afiliado. Clique em Continue (Continuar) para ser direcionado ao conteúdo de suporte correto e à assistência a *produto*.
Search All Articles
Encerramento do suporte aos navegadores IE 8, 9 e 10
O Portal da Quest Software não é mais compatível com IE8, 9 e 10. Recomendamos a atualização do navegador para a versão mais recente do Internet Explorer ou do Chrome.
use the utility provided at '${MODEL_BRIDGE_HOME}/bin/hive_generate_ddl.sh'. Place this utility on the hive cluster (should not matter where). Once there, remotely connect with a bash shell and execute the utility. It will extract the DDL from all the schemas in the cluster into a file name 'tables.hql'.