Nota
O acesso a esta página requer autorização. Podes tentar iniciar sessão ou mudar de diretório.
O acesso a esta página requer autorização. Podes tentar mudar de diretório.
Nota
Este artigo aborda o Databricks Connect para o Databricks Runtime 13.3 LTS ou posterior.
Este artigo lista as limitações do Databricks Connect for Python. O Databricks Connect permite conectar IDEs populares, servidores de notebook e aplicativos personalizados a clusters do Azure Databricks. Consulte O que é Databricks Connect?. Para a versão Scala deste artigo, consulte Limitações com o Databricks Connect for Scala.
Importante
Dependendo da versão do Python, Databricks Runtime e Databricks Connect que você está usando, pode haver requisitos de versão para alguns recursos. Consulte Requisitos de uso do Databricks Connect.
Disponibilidade de funcionalidades
Não disponível no Databricks Connect for Databricks Runtime 13.3 LTS e abaixo:
- Transmissão
foreachBatch - Criação de DataFrames maiores que 128 MB
- Consultas com mais de 3600 segundos de duração
Não disponível no Databricks Connect for Databricks Runtime 15.3 e inferior:
-
ApplyinPandas()eCogroup()com computação com modo de acesso padrão
Não disponível no Databricks Connect for Databricks Runtime 16.3 e abaixo:
- Na computação sem servidor, as UDFs não podem incluir bibliotecas personalizadas.
Não disponível:
-
dataframe.display()API (Interface de Programação de Aplicações) - Utilitários Databricks:
credentials,library,notebook workflow,widgets - Contexto da faísca
- Conjuntos de Dados Distribuídos Resilientes (RDDs)
- Bibliotecas que usam RDDs, Spark Context ou acessam a JVM subjacente do Spark, como Mosaic geospatial, GraphFrames ou GreatExpectations
-
CREATE TABLE <table-name> AS SELECT(em vez disso, usespark.sql("SELECT ...").write.saveAsTable("table")) - Alterar o log level do log4j através de
SparkContext - O treinamento distribuído de ML não é suportado.
- Sincronizando o ambiente de desenvolvimento local com o cluster remoto