Nota
O acesso a esta página requer autorização. Podes tentar iniciar sessão ou mudar de diretório.
O acesso a esta página requer autorização. Podes tentar mudar de diretório.
Aplica-se a:✅ endpoint de análise SQL e armazém de dados no Microsoft Fabric
Este artigo detalha as limitações atuais no Microsoft Fabric.
Essas limitações aplicam-se apenas aos itens de endpoints do Warehouse e da análise SQL no Fabric Synapse Data Warehouse. Para obter as limitações do banco de dados SQL no Fabric, consulte Limitações no banco de dados SQL no Microsoft Fabric (visualização).
Limitações
As limitações gerais atuais do produto para Data Warehousing no Microsoft Fabric estão listadas neste artigo, com limitações de nível de funcionalidade destacadas no artigo de funcionalidade correspondente. Mais funcionalidades serão desenvolvidas com base no desempenho e na capacidade de simultaneidade, que são de classe mundial e líderes do setor, e serão implementadas de forma gradual. Para obter mais informações sobre o futuro do Microsoft Fabric, consulte Roteiro do Fabric.
Importante
As ligações ao Fabric Data Warehouse e aos endpoints de análise SQL exigem que tanto a origem como o alvo estejam na mesma região. As ligações inter-regionais—incluindo aquelas entre espaços de trabalho ou capacidades em diferentes regiões—não são suportadas e podem falhar em autenticação ou ligação.
Para mais limitações em áreas específicas, consulte:
- Mesa de clonagem
- Conetividade
- Tipos de dados no Microsoft Fabric
- Registos do Delta Lake
- Assistente de Migração
- Pausar e retomar no armazenamento de dados do Fabric
- Modelos semânticos
- Partilhe os seus dados e faça a gestão de permissões
- Controle do código-fonte
- Estatísticas
- Tabelas
- Transações
- Editor de consultas visuais
Limitações do endpoint de análise SQL
As seguintes limitações aplicam-se ao endpoint de analítica SQL, geração automática de esquema e descoberta de metadados.
Os dados devem estar no formato Delta Parquet para serem automaticamente detetados no endpoint de analítica SQL. O Delta Lake é uma estrutura de armazenamento de código aberto que permite a construção da arquitetura Lakehouse.
O mapeamento de coluna delta por nome é suportado, mas o mapeamento de coluna delta por ID não é suportado. Para obter mais informações, consulte Recursos do Delta Lake e Experiências do Fabric.
- O mapeamento de colunas delta no endpoint de análise SQL está atualmente em pré-visualização.
As tabelas Delta criadas fora da pasta
/tablesnão estão disponíveis no endpoint de análise SQL.Se você não vir uma mesa Lakehouse no armazém, verifique a localização da mesa. Somente as tabelas que estão referenciando dados na
/tablespasta estão disponíveis no depósito. As tabelas que fazem referência a dados na pasta/filesno lago não são expostas no endpoint de análise SQL. Como solução alternativa, mova os dados para a/tablespasta.Algumas colunas que existem nas tabelas Delta do Spark podem não estar disponíveis nas tabelas no endpoint de análise SQL. Para obter uma lista completa dos tipos de dados suportados, consulte Tipos de dados no Fabric Data Warehouse.
Se você adicionar uma restrição de chave estrangeira entre tabelas no ponto de extremidade de análise SQL, não poderá fazer mais alterações de esquema (por exemplo, adicionando as novas colunas). Se não vir as colunas Delta Lake com os tipos que devem ser suportados no endpoint de análise SQL, verifique se existe uma restrição de chave estrangeira que possa impedir atualizações na tabela.
Para obter informações e recomendações sobre o desempenho do ponto de extremidade da análise SQL, consulte Considerações sobre o desempenho do ponto de extremidade da análise SQL.
As funções definidas pelo utilizador (UDFs) escalares são suportadas quando inseríveis. Para obter mais informações, consulte CREATE FUNCTION e Scalar UDF inlining.
O tipo de dado varchar(max) é suportado apenas em endpoints de análise SQL de itens espelhados e bases de dados Fabric, mas não em Lakehouses. As tabelas criadas após 10 de novembro de 2025 serão automaticamente mapeadas com varchar(max). As tabelas criadas antes de 10 de novembro de 2025 precisam de ser recriadas para adotar um novo tipo de dado, ou serão automaticamente atualizadas para varchar(max) durante a próxima alteração de esquema.
O truncamento de dados para 8 KB ainda se aplica nas tabelas do endpoint de análise SQL do Lakehouse, incluindo atalhos de acesso a um item espelhado.
Nem todas as tabelas suportam junções varchar(max), por isso essas colunas podem não funcionar como esperado se uma das tabelas ainda tiver truncação de dados. Por exemplo, se fizer CTAS de uma tabela de um item espelhado recém-criado numa tabela Lakehouse usando o Spark, e depois os juntar usando a coluna com varchar(max), os resultados da consulta serão diferentes em comparação com o tipo de dados varchar(8000). Se quiser continuar a ter o comportamento anterior, pode converter a coluna para varchar(8000) na sua consulta.
Pode confirmar se uma tabela tem alguma coluna varchar(max) dos metadados do esquema usando a seguinte consulta T-SQL. Um max_length valor de -1 representa varchar(max):
SELECT o.name, c.name, type_name(user_type_id) AS [type], max_length
FROM sys.columns AS c
INNER JOIN sys.objects AS o
ON c.object_id = o.object_id
WHERE max_length = -1
AND type_name(user_type_id) IN ('varchar', 'varbinary');
Problemas conhecidos
Para problemas conhecidos no Microsoft Fabric, visite Microsoft Fabric Known Issues.