Nota
O acesso a esta página requer autorização. Podes tentar iniciar sessão ou mudar de diretório.
O acesso a esta página requer autorização. Podes tentar mudar de diretório.
O compilador Microsoft C++ (MSVC) disponibiliza os seguintes intrínsecos na arquitetura ARM. Para obter mais informações sobre ARM, consulte as seções Ferramentas de Arquitetura e Desenvolvimento de Software do site Documentação do desenvolvedor ARM .
NÉON
As extensões do conjunto de instruções vetoriais NEON para ARM fornecem recursos SIMD (Single Instruction Multiple Data) que se assemelham aos dos conjuntos de instruções vetoriais MMX e SSE comuns aos processadores de arquitetura x86 e x64.
NEON intrínsecos são suportados, conforme fornecido no arquivo arm_neon.hde cabeçalho. O suporte MSVC para intrínsecos NEON se assemelha ao do compilador ARM, que está documentado no Apêndice G da cadeia de ferramentas do compilador ARM, Referência do compilador Versão 4.1 no site do ARM Infocenter.
A principal diferença entre o vldX MSVC e o compilador ARM é que o MSVC adiciona _ex variantes das instruções de carregamento e vstX armazenamento vetoriais. As _ex variantes usam um parâmetro adicional que especifica o alinhamento do argumento do ponteiro, mas são idênticas às suas não-contrapartes_ex .
Listagem de intrínsecos específicos do ARM
| Nome da Função | Instruções | Protótipo de função |
|---|---|---|
| _arm_smlal | SMLAL | __int64 _arm_smlal(__int64 _RdHiLo, int _Rn, int _Rm) |
| _arm_umlal | UMLAL | __int64 _arm_umlal não assinado(__int64 _RdHiLo não assinado, _Rn int não assinado, _Rm int não assinado) |
| _arm_clz | CLZ | _arm_clz int não assinado(_Rm int não assinado) |
| _arm_qadd | QADD | int _arm_qadd(int _Rm, int _Rn) |
| _arm_qdadd | QDADD | int _arm_qdadd(int _Rm, int _Rn) |
| _arm_qdsub | QDSUB | int _arm_qdsub(int _Rm, int _Rn) |
| _arm_qsub | QSUB | int _arm_qsub(int _Rm, int _Rn) |
| _arm_smlabb | SMLABB | int _arm_smlabb(int _Rn, int _Rm, int _Ra) |
| _arm_smlabt | SMLABT | int _arm_smlabt(int _Rn, int _Rm, int _Ra) |
| _arm_smlatb | SMLATB | int _arm_smlatb(int _Rn, int _Rm, int _Ra) |
| _arm_smlatt | SMLATT | int _arm_smlatt(int _Rn, int _Rm, int _Ra) |
| _arm_smlalbb | SMLALBB | __int64 _arm_smlalbb(__int64 _RdHiLo, int _Rn, int _Rm) |
| _arm_smlalbt | SMLALBT | __int64 _arm_smlalbt(__int64 _RdHiLo, int _Rn, int _Rm) |
| _arm_smlaltb | SMLALTB | __int64 _arm_smlaltb(__int64 _RdHiLo, int _Rn, int _Rm) |
| _arm_smlaltt | SMLALTT | __int64 _arm_smlaltt(__int64 _RdHiLo, int _Rn, int _Rm) |
| _arm_smlawb | SMLAWB | int _arm_smlawb(int _Rn, int _Rm, int _Ra) |
| _arm_smlawt | SMLAWT | int _arm_smlawt(int _Rn, int _Rm, int _Ra) |
| _arm_smulbb | SMULBB | int _arm_smulbb(int _Rn, int _Rm) |
| _arm_smulbt | SMULBT | int _arm_smulbt(int _Rn, int _Rm) |
| _arm_smultb | SMULTB | int _arm_smultb(int _Rn, int _Rm) |
| _arm_smultt | SMULTT | int _arm_smultt(int _Rn, int _Rm) |
| _arm_smulwb | SMULWB | int _arm_smulwb(int _Rn, int _Rm) |
| _arm_smulwt | SMULWT | int _arm_smulwt(int _Rn, int _Rm) |
| _arm_sadd16 | SADD16 | int _arm_sadd16(int _Rn, int _Rm) |
| _arm_sadd8 | SADD8 | int _arm_sadd8(int _Rn, int _Rm) |
| _arm_sasx | SASX | int _arm_sasx(int _Rn, int _Rm) |
| _arm_ssax | SSAX | int _arm_ssax(int _Rn, int _Rm) |
| _arm_ssub16 | SSUB16 | int _arm_ssub16(int _Rn, int _Rm) |
| _arm_ssub8 | SSUB8 | int _arm_ssub8(int _Rn, int _Rm) |
| _arm_shadd16 | SHADD16 | int _arm_shadd16(int _Rn, int _Rm) |
| _arm_shadd8 | SHADD8 | int _arm_shadd8(int _Rn, int _Rm) |
| _arm_shasx | SHASX | int _arm_shasx(int _Rn, int _Rm) |
| _arm_shsax | SHSAX | int _arm_shsax(int _Rn, int _Rm) |
| _arm_shsub16 | SHSUB16 | int _arm_shsub16(int _Rn, int _Rm) |
| _arm_shsub8 | SHSUB8 | int _arm_shsub8(int _Rn, int _Rm) |
| _arm_qadd16 | QADD16 | int _arm_qadd16(int _Rn, int _Rm) |
| _arm_qadd8 | QADD8 | int _arm_qadd8(int _Rn, int _Rm) |
| _arm_qasx | QASX | int _arm_qasx(int _Rn, int _Rm) |
| _arm_qsax | QSAX | int _arm_qsax(int _Rn, int _Rm) |
| _arm_qsub16 | QSUB16 | int _arm_qsub16(int _Rn, int _Rm) |
| _arm_qsub8 | QSUB8 | int _arm_qsub8(int _Rn, int _Rm) |
| _arm_uadd16 | UADD16 | _arm_uadd16 int não assinado(_Rn int não assinado, int _Rm não assinado) |
| _arm_uadd8 | UADD8 | _arm_uadd8 int não assinado(_Rn int não assinado, int _Rm não assinado) |
| _arm_uasx | UASX | _arm_uasx int não assinado(_Rn int não assinado, int _Rm não assinado) |
| _arm_usax | USAX | _arm_usax int não assinado(_Rn int não assinado, int _Rm não assinado) |
| _arm_usub16 | USUB16 | _arm_usub16 int não assinado(_Rn int não assinado, int _Rm não assinado) |
| _arm_usub8 | USUB8 | _arm_usub8 int não assinado(_Rn int não assinado, int _Rm não assinado) |
| _arm_uhadd16 | UHADD16 | _arm_uhadd16 int não assinado(_Rn int não assinado, _Rm int não assinado) |
| _arm_uhadd8 | UHADD8 | _arm_uhadd8 int não assinado(_Rn int não assinado, _Rm int não assinado) |
| _arm_uhasx | UHASX | _arm_uhasx int não assinado(_Rn int não assinado, int _Rm não assinado) |
| _arm_uhsax | UHSAX | _arm_uhsax int não assinado(_Rn int não assinado, int _Rm não assinado) |
| _arm_uhsub16 | UHSUB16 | _arm_uhsub16 int não assinado(_Rn int não assinado, _Rm int não assinado) |
| _arm_uhsub8 | UHSUB8 | _arm_uhsub8 int não assinado(_Rn int não assinado, int _Rm não assinado) |
| _arm_uqadd16 | UQADD16 | _arm_uqadd16 int não assinado(_Rn int não assinado, int _Rm não assinado) |
| _arm_uqadd8 | UQADD8 | _arm_uqadd8 int não assinado(_Rn int não assinado, _Rm int não assinado) |
| _arm_uqasx | UQASX | _arm_uqasx int não assinado(_Rn int não assinado, int _Rm não assinado) |
| _arm_uqsax | UQSAX | _arm_uqsax int não assinado(_Rn int não assinado, int _Rm não assinado) |
| _arm_uqsub16 | UQSUB16 | _arm_uqsub16 int não assinado(_Rn int não assinado, int _Rm não assinado) |
| _arm_uqsub8 | UQSUB8 | _arm_uqsub8 int não assinado(_Rn int não assinado, int _Rm não assinado) |
| _arm_sxtab | SXTAB | int _arm_sxtab(int _Rn, int _Rm, não assinado int _Rotation) |
| _arm_sxtab16 | SXTAB16 | int _arm_sxtab16(int _Rn, int _Rm, int _Rotation não assinado) |
| _arm_sxtah | SXTAH | int _arm_sxtah(int _Rn, int _Rm, não assinado int _Rotation) |
| _arm_uxtab | UXTAB | _arm_uxtab int não assinado(_Rn int não assinado, _Rm int não assinado, int _Rotation não assinado) |
| _arm_uxtab16 | UXTAB16 | _arm_uxta16b int não assinado(_Rn int não assinado, _Rm int não assinado, _Rotation int não assinado) |
| _arm_uxtah | UXTAH | _arm_uxtah int não assinado(_Rn int não assinado, int _Rm não assinado, int _Rotation não assinado) |
| _arm_sxtb | SXTB | int _arm_sxtb(_Rn int, _Rotation int não assinado) |
| _arm_sxtb16 | SXTB16 | int _arm_sxtb16(_Rn int, _Rotation int não assinado) |
| _arm_sxth | SXTH | int _arm_sxth(int _Rn, não assinado int _Rotation) |
| _arm_uxtb | UXTB | _arm_uxtb int não assinado(_Rn int não assinado, int _Rotation não assinado) |
| _arm_uxtb16 | UXTB16 | _arm_uxtb16 int não assinado(_Rn int não assinado, int _Rotation não assinado) |
| _arm_uxth | UXTH | _arm_uxth int não assinado(_Rn int não assinado, int _Rotation não assinado) |
| _arm_pkhbt | PKHBT | int _arm_pkhbt(int _Rn, int _Rm, int _Lsl_imm não assinado) |
| _arm_pkhtb | PKHTB | int _arm_pkhtb(int _Rn, int _Rm, não assinado int _Asr_imm) |
| _arm_usad8 | USAD8 | _arm_usad8 int não assinado(_Rn int não assinado, int _Rm não assinado) |
| _arm_usada8 | USADA8 | _arm_usada8 int não assinado(_Rn int não assinado, _Rm int não assinado, int _Ra não assinado) |
| _arm_ssat | SSAT | int _arm_ssat(_Sat_imm int não assinado, _int _Rn, _ARMINTR_SHIFT_T _Shift_type, int _Shift_imm não assinado) |
| _arm_usat | USAT | int _arm_usat(_Sat_imm int não assinado, _int _Rn, _ARMINTR_SHIFT_T _Shift_type, int _Shift_imm não assinado) |
| _arm_ssat16 | SSAT16 | int _arm_ssat16(_Sat_imm int não assinado, _int _Rn) |
| _arm_usat16 | USAT16 | int _arm_usat16(_Sat_imm int não assinado, _int _Rn) |
| _arm_rev | REV | _arm_rev int não assinado(_Rm int não assinado) |
| _arm_rev16 | REV16 | _arm_rev16 int não assinado(_Rm int não assinado) |
| _arm_revsh | REVSH | _arm_revsh int não assinado(_Rm int não assinado) |
| _arm_smlad | SMLAD | int _arm_smlad(int _Rn, int _Rm, int _Ra) |
| _arm_smladx | SMLADX | int _arm_smladx(int _Rn, int _Rm, int _Ra) |
| _arm_smlsd | SMLSD | int _arm_smlsd(int _Rn, int _Rm, int _Ra) |
| _arm_smlsdx | SMLSDX | int _arm_smlsdx(int _Rn, int _Rm, int _Ra) |
| _arm_smmla | SMMLA | int _arm_smmla(int _Rn, int _Rm, int _Ra) |
| _arm_smmlar | SMMLAR | int _arm_smmlar(int _Rn, int _Rm, int _Ra) |
| _arm_smmls | SMMLS | int _arm_smmls(int _Rn, int _Rm, int _Ra) |
| _arm_smmlsr | SMMLSR | int _arm_smmlsr(int _Rn, int _Rm, int _Ra) |
| _arm_smmul | SMMUL | int _arm_smmul(int _Rn, int _Rm) |
| _arm_smmulr | SMMULR | int _arm_smmulr(int _Rn, int _Rm) |
| _arm_smlald | SMLALD | __int64 _arm_smlald(__int64 _RdHiLo, int _Rn, int _Rm) |
| _arm_smlaldx | SMLALDX | __int64 _arm_smlaldx(__int64 _RdHiLo, int _Rn, int _Rm) |
| _arm_smlsld | SMLSLD | __int64 _arm_smlsld(__int64 _RdHiLo, int _Rn, int _Rm) |
| _arm_smlsldx | SMLSLDX | __int64 _arm_smlsldx(__int64 _RdHiLo, int _Rn, int _Rm) |
| _arm_smuad | SMUAD | int _arm_smuad(int _Rn, int _Rm) |
| _arm_smuadx | SMUADX | int _arm_muadxs(int _Rn, int _Rm) |
| _arm_smusd | SMUSD | int _arm_smusd(int _Rn, int _Rm) |
| _arm_smusdx | SMUSDX | int _arm_smusdx(int _Rn, int _Rm) |
| _arm_smull | SMULL | __int64 _arm_smull(int _Rn, int _Rm) |
| _arm_umull | UMULL | __int64 _arm_umull não assinado(_Rn int não assinado, _Rm int não assinado) |
| _arm_umaal | UMAAL | __int64 _arm_umaal não assinado(_RdLo int não assinado, _RdHi int não assinado, _Rn int não assinado, _Rm int não assinado) |
| _arm_bfc | BFC | _arm_bfc int não assinado(_Rd int não assinado, _Lsb int não assinado, int _Width não assinado) |
| _arm_bfi | BFI | _arm_bfi int não assinado(_Rd int não assinado, _Rn int não assinado, _Lsb int não assinado, int _Width não assinado) |
| _arm_rbit | RBIT | _arm_rbit int não assinado(_Rm int não assinado) |
| _arm_sbfx | SBFX | int _arm_sbfx(int _Rn, int _Lsb não assinado, int _Width não assinado) |
| _arm_ubfx | UBFX | _arm_ubfx int não assinado(_Rn int não assinado, _Lsb int não assinado, int _Width não assinado) |
| _arm_sdiv | SDIV | int _arm_sdiv(int _Rn, int _Rm) |
| _arm_udiv | UDIV | _arm_udiv int não assinado(_Rn int não assinado, int _Rm não assinado) |
| __cps | CPS | __cps nulo (_Ops int não assinado, _Flags int não assinado, _Mode int não assinado) |
| __dmb | DMB | __dmb nulo (int _Typenão assinado)Insere uma operação de barreira de memória no fluxo de instruções. O parâmetro _Type especifica o tipo de restrição que a barreira impõe.Para obter mais informações sobre os tipos de restrições que podem ser impostas, consulte Restrições de barreira de memória. |
| __dsb | ORL | __dsb nulo (_Type int não assinado) Insere uma operação de barreira de memória no fluxo de instruções. O parâmetro _Type especifica o tipo de restrição que a barreira impõe.Para obter mais informações sobre os tipos de restrições que podem ser impostas, consulte Restrições de barreira de memória. |
| __isb | ISB | Null __isb(_Type int não assinado) Insere uma operação de barreira de memória no fluxo de instruções. O parâmetro _Type especifica o tipo de restrição que a barreira impõe.Para obter mais informações sobre os tipos de restrições que podem ser impostas, consulte Restrições de barreira de memória. |
| __emit | void __emit(opcode __int32 não assinado) Insere uma instrução especificada no fluxo de instruções que é saída pelo compilador. O valor de deve ser uma expressão constante que é conhecida em tempo de opcode compilação. O tamanho de uma palavra de instrução é de 16 bits e os 16 bits mais significativos são opcode ignorados.O compilador não faz nenhuma tentativa de interpretar o conteúdo e não garante um estado de opcode CPU ou memória antes que a instrução inserida seja executada.O compilador assume que os estados da CPU e da memória permanecem inalterados depois que a instrução inserida é executada. Portanto, as instruções que alteram o estado podem ter um impacto prejudicial no código normal gerado pelo compilador. Por esse motivo, use emit apenas para inserir instruções que afetam um estado da CPU que o compilador normalmente não processa — por exemplo, o estado do coprocessador — ou para implementar funções que são declaradas usando declspec(naked)o . |
|
| __hvc | HVC | int não assinado __hvc(int não assinado, ...) |
| __iso_volatile_load16 | __int16 __iso_volatile_load16(const volátil __int16 *) Para obter mais informações, consulte __iso_volatile_load/store intrinsics. |
|
| __iso_volatile_load32 | __int32 __iso_volatile_load32(const volátil __int32 *) Para obter mais informações, consulte __iso_volatile_load/store intrinsics. |
|
| __iso_volatile_load64 | __int64 __iso_volatile_load64(const volátil __int64 *) Para obter mais informações, consulte __iso_volatile_load/store intrinsics. |
|
| __iso_volatile_load8 | __int8 __iso_volatile_load8(const volátil __int8 *) Para obter mais informações, consulte __iso_volatile_load/store intrinsics. |
|
| __iso_volatile_store16 | void __iso_volatile_store16(__int16 volátil *, __int16) Para obter mais informações, consulte __iso_volatile_load/store intrinsics. |
|
| __iso_volatile_store32 | void __iso_volatile_store32(__int32 volátil *, __int32) Para obter mais informações, consulte __iso_volatile_load/store intrinsics. |
|
| __iso_volatile_store64 | void __iso_volatile_store64(__int64 volátil *, __int64) Para obter mais informações, consulte __iso_volatile_load/store intrinsics. |
|
| __iso_volatile_store8 | __iso_volatile_store8 nulo (__int8 volátil *, __int8) Para obter mais informações, consulte __iso_volatile_load/store intrinsics. |
|
| __ldrexd | LDREXD | __int64 __ldrexd(const volátil __int64 *) |
| __prefetch | PLD | Vazio __cdecl __prefetch(const void *) Fornece uma PLD dica de memória para o sistema de que a memória no endereço especificado ou perto dele pode ser acessada em breve. Alguns sistemas podem optar por otimizar para esse padrão de acesso à memória para aumentar o desempenho do tempo de execução. No entanto, do ponto de vista da linguagem C++, a função não tem efeito observável e pode não fazer nada. |
| __rdpmccntr64 | __int64 __rdpmccntr64 não assinado(nulo) | |
| __sev | SEV | void __sev(nulo) |
| __static_assert | vazio __static_assert(int, const char *) | |
| __swi | SVC | não assinado int __swi(não assinado int, ...) |
| __trap | BKPT | Int __trap(int, ...) |
| __wfe | WFE | nulo __wfe(nulo) |
| __wfi | WFI | void __wfi(nulo) |
| _AddSatInt | QADD | Int _AddSatInt(int, int) |
| _CopyDoubleFromInt64 | Duplo _CopyDoubleFromInt64(__int64) | |
| _CopyFloatFromInt32 | flutuar _CopyFloatFromInt32(__int32) | |
| _CopyInt32FromFloat | __int32 _CopyInt32FromFloat(flutuar) | |
| _CopyInt64FromDouble | __int64 _CopyInt64FromDouble (duplo) | |
| _CountLeadingOnes | _CountLeadingOnes int não assinado(longo não assinado) | |
| _CountLeadingOnes64 | _CountLeadingOnes64 int não assinado(__int64 não assinado) | |
| _CountLeadingSigns | int não assinado _CountLeadingSigns(longo) | |
| _CountLeadingSigns64 | _CountLeadingSigns64 int não assinado(__int64) | |
| _CountLeadingZeros | _CountLeadingZeros int não assinado(longo não assinado) | |
| _CountLeadingZeros64 | _CountLeadingZeros64 int não assinado(__int64 não assinado) | |
| _CountTrailingZeros | _CountTrailingZeros não assinado(longo não assinado) | |
| _CountTrailingZeros64 | _CountTrailingZeros64 não assinado(__int64 não assinado) | |
| _CountOneBits | não assinado int _CountOneBits(longo não assinado) | |
| _CountOneBits64 | _CountOneBits64 int não assinado(__int64 não assinado) | |
| _DAddSatInt | QDADD | Int _DAddSatInt(int, int) |
| _DSubSatInt | QDSUB | Int _DSubSatInt(int, int) |
| _isunordered | int _isunordered(duplo, duplo) | |
| _isunorderedf | int _isunorderedf(flutuar, flutuar) | |
| _MoveFromCoprocessor | MRC | int não assinado _MoveFromCoprocessor(int não assinado, int não assinado, int não assinado, int não assinado, int não assinado) Lê dados de um coprocessador ARM usando as instruções de transferência de dados do coprocessador. Para obter mais informações, consulte _MoveFromCoprocessor, _MoveFromCoprocessor2. |
| _MoveFromCoprocessor2 | MRC2 | int não assinado _MoveFromCoprocessor2(int não assinado, int não assinado, int não assinado, int não assinado, int não assinado) Lê dados de um coprocessador ARM usando as instruções de transferência de dados do coprocessador. Para obter mais informações, consulte _MoveFromCoprocessor, _MoveFromCoprocessor2. |
| _MoveFromCoprocessor64 | MRRC | __int64 _MoveFromCoprocessor64 não assinado(int não assinado, int não assinado, int não assinado) Lê dados de um coprocessador ARM usando as instruções de transferência de dados do coprocessador. Para obter mais informações, consulte _MoveFromCoprocessor64. |
| _MoveToCoprocessor | MCR | void _MoveToCoprocessor(int não assinado, int não assinado, int não assinado, int não assinado, int não assinado) Lê dados de um coprocessador ARM usando as instruções de transferência de dados do coprocessador. Para obter mais informações, consulte _MoveToCoprocessor, _MoveToCoprocessor2. |
| _MoveToCoprocessor2 | MCR2 | void _MoveToCoprocessor2(int não assinado, int não assinado, int não assinado, int não assinado, int não assinado) Lê dados de um coprocessador ARM usando as instruções de transferência de dados do coprocessador. Para obter mais informações, consulte _MoveToCoprocessor, _MoveToCoprocessor2. |
| _MoveToCoprocessor64 | MCRR | _MoveToCoprocessor64 nulo (__int64 não assinado, int não assinado, int não assinado, int não assinado) Lê dados de um coprocessador ARM usando as instruções de transferência de dados do coprocessador. Para obter mais informações, consulte _MoveToCoprocessor64. |
| _MulHigh | longo _MulHigh (longo, longo) | |
| _MulUnsignedHigh | _MulUnsignedHigh longo não assinado (longo não assinado, longo não assinado) | |
| _ReadBankedReg | MRS | Int _ReadBankedReg(Int _Reg) |
| _ReadStatusReg | MRS | Int _ReadStatusReg(int) |
| _SubSatInt | QSUB | Int _SubSatInt(int, int) |
| _WriteBankedReg | MSR | Void _WriteBankedReg(_Value Int, _Reg Int) |
| _WriteStatusReg | MSR | Vazio _WriteStatusReg(INT, INT, INT) |
Restrições de barreira de memória
As funções __dmb intrínsecas (barreira de memória de dados), __dsb (barreira de sincronização de dados) e __isb (barreira de sincronização de instruções) usam os seguintes valores predefinidos para especificar a restrição de barreira de memória em termos do domínio de compartilhamento e do tipo de acesso que são afetados pela operação.
| Valor de restrição | Description |
|---|---|
| _ARM_BARRIER_SY | Sistema completo, lê e escreve. |
| _ARM_BARRIER_ST | Sistema completo, apenas grava. |
| _ARM_BARRIER_ISH | Partilhável interior, lê e escreve. |
| _ARM_BARRIER_ISHST | Interno partilhável, escreve apenas. |
| _ARM_BARRIER_NSH | Não compartilhável, lê e escreve. |
| _ARM_BARRIER_NSHST | Não partilhável, escreve apenas. |
| _ARM_BARRIER_OSH | Exterior partilhável, lê e escreve. |
| _ARM_BARRIER_OSHST | Exterior partilhável, escreve apenas. |
Para o __isb intrínseco, a única restrição que é válida atualmente é _ARM_BARRIER_SY, todos os outros valores são reservados pela arquitetura.
__iso_volatile_load/loja intrínseca
Essas funções intrínsecas executam explicitamente cargas e armazenamentos que não estão sujeitos a otimizações do compilador.
__int16 __iso_volatile_load16(const volatile __int16 * Location);
__int32 __iso_volatile_load32(const volatile __int32 * Location);
__int64 __iso_volatile_load64(const volatile __int64 * Location);
__int8 __iso_volatile_load8(const volatile __int8 * Location);
void __iso_volatile_store16(volatile __int16 * Location, __int16 Value);
void __iso_volatile_store32(volatile __int32 * Location, __int32 Value);
void __iso_volatile_store64(volatile __int64 * Location, __int64 Value);
void __iso_volatile_store8(volatile __int8 * Location, __int8 Value);
Parâmetros
Localização
O endereço de um local de memória para ler ou gravar.
Value
O valor a ser gravado no local de memória especificado (armazenar apenas intrínsecos).
Valor de retorno (somente intrínsecos de carga)
O valor do local da memória especificado pelo Location.
Observações
Você pode usar o __iso_volatile_load8/16/32/64 e __iso_volatile_store8/16/32/64 intrínsecos para executar explicitamente acessos de memória que não estão sujeitos a otimizações do compilador. O compilador não pode remover, sintetizar ou alterar a ordem relativa dessas operações, mas não gera barreiras implícitas de memória de hardware. Portanto, o hardware ainda pode reordenar os acessos de memória observáveis em vários threads. Mais precisamente, essas intrínsecas são equivalentes às seguintes expressões compiladas em /volatile:iso.
int a = __iso_volatile_load32(p); // equivalent to: int a = *(const volatile __int32*)p;
__iso_volatile_store32(p, a); // equivalent to: *(volatile __int32*)p = a;
Observe que os intrínsecos tomam ponteiros voláteis para acomodar variáveis voláteis. No entanto, não há nenhuma exigência ou recomendação para usar ponteiros voláteis como argumentos. A semântica dessas operações é exatamente a mesma se for usado um tipo regular e não volátil.
Para obter mais informações sobre o argumento de linha de comando /volatile:iso , consulte /volatile (volatile Keyword Interpretation).
_MoveFromCoprocessor, _MoveFromCoprocessor2
Essas funções intrínsecas leem dados de coprocessadores ARM usando as instruções de transferência de dados do coprocessador.
int _MoveFromCoprocessor(
unsigned int coproc,
unsigned int opcode1,
unsigned int crn,
unsigned int crm,
unsigned int opcode2
);
int _MoveFromCoprocessor2(
unsigned int coproc,
unsigned int opcode1,
unsigned int crn,
unsigned int crm,
unsigned int opcode2
);
Parâmetros
COPROC
Número do coprocessador no intervalo de 0 a 15.
Opcode1
Opcode específico do coprocessador na faixa de 0 a 7
CRN
Número de registro do coprocessador, no intervalo de 0 a 15, que especifica o primeiro operando para a instrução.
CRM
Número de registro do coprocessador, no intervalo de 0 a 15, que especifica um operando de origem ou destino adicional.
Opcode2
Opcode adicional específico do coprocessador no intervalo de 0 a 7.
Valor de retorno
O valor que é lido do coprocessador.
Observações
Os valores de todos os cinco parâmetros do intrínseco devem ser expressões constantes que são conhecidas em tempo de compilação.
_MoveFromCoprocessor utiliza a instrução MRC; _MoveFromCoprocessor2 usa MRC2. Os parâmetros correspondem a campos de bits que são codificados diretamente na palavra de instrução. A interpretação dos parâmetros depende do coprocessador. Para obter mais informações, consulte o manual do coprocessador em questão.
_MoveFromCoprocessor64
Lê dados de coprocessadores ARM usando as instruções de transferência de dados do coprocessador.
unsigned __int64 _MoveFromCoprocessor64(
unsigned int coproc,
unsigned int opcode1,
unsigned int crm
);
Parâmetros
COPROC
Número do coprocessador no intervalo de 0 a 15.
Opcode1
Opcode específico do coprocessador na faixa de 0 a 15.
CRM
Número de registro do coprocessador, no intervalo de 0 a 15, que especifica um operando de origem ou destino adicional.
Valor de retorno
O valor que é lido do coprocessador.
Observações
Os valores de todos os três parâmetros do intrínseco devem ser expressões constantes que são conhecidas em tempo de compilação.
_MoveFromCoprocessor64 utiliza a instrução MRRC. Os parâmetros correspondem a campos de bits que são codificados diretamente na palavra de instrução. A interpretação dos parâmetros depende do coprocessador. Para obter mais informações, consulte o manual do coprocessador em questão.
_MoveToCoprocessor, _MoveToCoprocessor2
Essas funções intrínsecas gravam dados em coprocessadores ARM usando as instruções de transferência de dados do coprocessador.
void _MoveToCoprocessor(
unsigned int value,
unsigned int coproc,
unsigned int opcode1,
unsigned int crn,
unsigned int crm,
unsigned int opcode2
);
void _MoveToCoprocessor2(
unsigned int value,
unsigned int coproc,
unsigned int opcode1,
unsigned int crn,
unsigned int crm,
unsigned int opcode2
);
Parâmetros
value
O valor a ser gravado no coprocessador.
COPROC
Número do coprocessador no intervalo de 0 a 15.
Opcode1
Opcode específico do coprocessador na faixa de 0 a 7.
CRN
Número de registro do coprocessador, no intervalo de 0 a 15, que especifica o primeiro operando para a instrução.
CRM
Número de registro do coprocessador, no intervalo de 0 a 15, que especifica um operando de origem ou destino adicional.
Opcode2
Opcode adicional específico do coprocessador no intervalo de 0 a 7.
Valor de retorno
Nenhum.
Observações
Os valores do coproc, opcode1, crn, crm, e opcode2 parâmetros do intrínseco devem ser expressões constantes que são conhecidas em tempo de compilação.
_MoveToCoprocessor utiliza a instrução MCR; _MoveToCoprocessor2 utiliza MCR2. Os parâmetros correspondem a campos de bits que são codificados diretamente na palavra de instrução. A interpretação dos parâmetros depende do coprocessador. Para obter mais informações, consulte o manual do coprocessador em questão.
_MoveToCoprocessor64
Essas funções intrínsecas gravam dados em coprocessadores ARM usando as instruções de transferência de dados do coprocessador.
void _MoveFromCoprocessor64(
unsigned __int64 value,
unsigned int coproc,
unsigned int opcode1,
unsigned int crm
);
Parâmetros
COPROC
Número do coprocessador no intervalo de 0 a 15.
Opcode1
Opcode específico do coprocessador na faixa de 0 a 15.
CRM
Número de registro do coprocessador, no intervalo de 0 a 15, que especifica um operando de origem ou destino adicional.
Valor de retorno
Nenhum.
Observações
Os valores do coproc, opcode1e crm os parâmetros do intrínseco devem ser expressões constantes que são conhecidas em tempo de compilação.
_MoveFromCoprocessor64 usa a instrução MCRR. Os parâmetros correspondem a campos de bits que são codificados diretamente na palavra de instrução. A interpretação dos parâmetros depende do coprocessador. Para obter mais informações, consulte o manual do coprocessador em questão.
Suporte ARM para intrínsecos de outras arquiteturas
A tabela a seguir lista intrínsecos de outras arquiteturas suportadas em plataformas ARM. Quando o comportamento de um intrínseco no ARM difere do seu comportamento em outras arquiteturas de hardware, detalhes adicionais são observados.
| Nome da Função | Protótipo de função |
|---|---|
| __assume | Vazio __assume(int) |
| __code_seg | vazio __code_seg(const char *) |
| __debugbreak | nulo __cdecl __debugbreak(nulo) |
| __fastfail | __declspec(noreturn) void __fastfail(int não assinado) |
| __nop | void __nop(void) Nota: Em plataformas ARM, esta função gera uma instrução NOP se for implementada na arquitetura de destino; caso contrário, uma instrução alternativa que não altera o estado do programa ou da CPU é gerada — por exemplo, MOV r8, r8. É funcionalmente equivalente ao __nop intrínseco para outras arquiteturas de hardware. Como uma instrução que não tem efeito sobre o estado do programa ou da CPU pode ser ignorada pela arquitetura de destino como uma otimização, a instrução não consome necessariamente ciclos de CPU. Portanto, não use o __nop intrínseco para manipular o tempo de execução de uma sequência de código, a menos que você tenha certeza sobre como a CPU se comportará. Em vez disso, você pode usar o __nop intrínseco para alinhar a próxima instrução a um endereço de limite específico de 32 bits. |
| __yield | void __yield(void) Nota: Em plataformas ARM, essa função gera a instrução YIELD, que indica que o thread está executando uma tarefa que pode ser temporariamente suspensa da execução — por exemplo, um spinlock — sem afetar adversamente o programa. Ele permite que a CPU execute outras tarefas durante os ciclos de execução que, de outra forma, seriam desperdiçadas. |
| _AddressOfReturnAddress | void * _AddressOfReturnAddress(void) |
| _BitScanForward | char não assinado _BitScanForward(long * _Index não assinado, long _Mask não assinado) |
| _BitScanReverse | char _BitScanReverse não assinado(longo * _Index não assinado, _Mask longo não assinado) |
| _bittest | char não assinado _bittest(long const *, long) |
| _bittestandcomplement | char não assinado _bittestandcomplement(long *, long) |
| _bittestandreset | char não assinado _bittestandreset(long *, long) |
| _bittestandset | char não assinado _bittestandset(long *, long) |
| _byteswap_uint64 | __int64 __cdecl _byteswap_uint64 não assinado(__int64 não assinado) |
| _byteswap_ulong | __cdecl _byteswap_ulong longo não assinado(longo não assinado) |
| _byteswap_ushort | __cdecl _byteswap_ushort curto não assinado(curto não assinado) |
| _disable | void __cdecl _disable(void) Nota: Em plataformas ARM, esta função gera a instrução CPSID; está disponível apenas como um intrínseco. |
| _enable | void __cdecl _enable(void) Nota: Em plataformas ARM, esta função gera a instrução CPSIE; está disponível apenas como um intrínseco. |
| _lrotl | __cdecl _lrotl longo não assinado (longo não assinado, int) |
| _lrotr | __cdecl _lrotr longo não assinado (longo não assinado, int) |
| _ReadBarrier | void _ReadBarrier(nulo) |
| _ReadWriteBarrier | void _ReadWriteBarrier(nulo) |
| _ReturnAddress | void * _ReturnAddress(nulo) |
| _rotl | __cdecl _rotl int não assinado(_Value int não assinado, _Shift int) |
| _rotl16 | _rotl16 curto não assinado(_Value curto não assinado, char _Shift não assinado) |
| _rotl64 | __int64 __cdecl _rotl64 não assinado(__int64 _Value não assinado, int _Shift) |
| _rotl8 | char não assinado _rotl8(_Value char não assinado, char não assinado _Shift) |
| _rotr | __cdecl _rotr int não assinado(_Value int não assinado, int _Shift) |
| _rotr16 | _rotr16 curto não assinado(_Value curto não assinado, char _Shift não assinado) |
| _rotr64 | __int64 __cdecl _rotr64 não assinado(__int64 _Value não assinado, int _Shift) |
| _rotr8 | char não assinado _rotr8(char _Value não assinado, char não assinado _Shift) |
| _setjmpex | Int __cdecl _setjmpex(jmp_buf) |
| _WriteBarrier | nulo _WriteBarrier(nulo) |
Intrínsecos interligados
Intrínsecos interligados são um conjunto de intrínsecos que são usados para executar operações atômicas de leitura-modificação-gravação. Alguns deles são comuns a todas as plataformas. Eles são listados separadamente aqui porque há um grande número deles, mas como suas definições são em sua maioria redundantes, é mais fácil pensar sobre eles em termos gerais. Seus nomes podem ser usados para derivar os comportamentos exatos.
A tabela a seguir resume o suporte ARM dos intrínsecos interligados não bittest. Cada célula da tabela corresponde a um nome derivado ao acrescentar o nome da operação na célula mais à esquerda da linha e o nome do tipo na célula mais à parte superior da coluna a _Interlocked. Por exemplo, a célula na intersecção da linha e da Xor8 coluna corresponde e _InterlockedXor8 é totalmente suportada. A maioria das funções suportadas oferece estes sufixos opcionais: _acq, _rel, e _nf. O _acq sufixo indica uma semântica "adquirir" e o sufixo _rel indica uma semântica "liberar". O _nf sufixo ou "sem cerca" é exclusivo do ARM e é discutido na próxima seção.
| Funcionamento | 8 | 16 | 32 | 64 | P |
|---|---|---|---|---|---|
| Adicionar | Nenhum | Nenhum | Completo | Completo | Nenhum |
| e ainda | Completo | Completo | Completo | Completo | Nenhum |
| CompareExchange | Completo | Completo | Completo | Completo | Completo |
| Decréscimo | Nenhum | Completo | Completo | Completo | Nenhum |
| Troca | Parcial | Parcial | Parcial | Parcial | Parcial |
| ExchangeAdicionar | Completo | Completo | Completo | Completo | Nenhum |
| Incremento | Nenhum | Completo | Completo | Completo | Nenhum |
| Ou | Completo | Completo | Completo | Completo | Nenhum |
| Xor | Completo | Completo | Completo | Completo | Nenhum |
Chave:
Completo: suporta simples,
_acq,_rele_nfformulários.Parcial: suporta simples,
_acqe_nfformulários.Nenhum: Não suportado
_nf (sem cerca) Sufixo
O _nf sufixo ou "sem cerca" indica que a operação não se comporta como qualquer tipo de barreira de memória, em contraste com as outras três formas (simples, _acq, e _rel), que se comportam como algum tipo de barreira. Um uso possível dos formulários é manter um contador de _nf estatísticas que é atualizado por vários threads ao mesmo tempo, mas cujo valor não é usado enquanto vários threads estão em execução.
Lista de intrínsecas interligadas
| Nome da Função | Protótipo de função |
|---|---|
| _InterlockedAdd | longo _InterlockedAdd(longo _volatile *, longo) |
| _InterlockedAdd64 | __int64 _InterlockedAdd64(__int64 volátil *, __int64) |
| _InterlockedAdd64_acq | __int64 _InterlockedAdd64_acq(__int64 volátil *, __int64) |
| _InterlockedAdd64_nf | __int64 _InterlockedAdd64_nf(__int64 volátil *, __int64) |
| _InterlockedAdd64_rel | __int64 _InterlockedAdd64_rel(__int64 volátil *, __int64) |
| _InterlockedAdd_acq | longo _InterlockedAdd_acq(longo volátil *, longo) |
| _InterlockedAdd_nf | longo _InterlockedAdd_nf(longo volátil *, longo) |
| _InterlockedAdd_rel | longo _InterlockedAdd_rel(longo volátil *, longo) |
| _InterlockedAnd | longo _InterlockedAnd(longo volátil *, longo) |
| _InterlockedAnd16 | curto _InterlockedAnd16(curto volátil *, curto) |
| _InterlockedAnd16_acq | curto _InterlockedAnd16_acq(curto volátil *, curto) |
| _InterlockedAnd16_nf | curto _InterlockedAnd16_nf(curto volátil *, curto) |
| _InterlockedAnd16_rel | curto _InterlockedAnd16_rel(curto volátil *, curto) |
| _InterlockedAnd64 | __int64 _InterlockedAnd64(__int64 volátil *, __int64) |
| _InterlockedAnd64_acq | __int64 _InterlockedAnd64_acq(__int64 volátil *, __int64) |
| _InterlockedAnd64_nf | __int64 _InterlockedAnd64_nf(__int64 volátil *, __int64) |
| _InterlockedAnd64_rel | __int64 _InterlockedAnd64_rel(__int64 volátil *, __int64) |
| _InterlockedAnd8 | char _InterlockedAnd8(char volátil *, char) |
| _InterlockedAnd8_acq | char _InterlockedAnd8_acq(char volátil *, char) |
| _InterlockedAnd8_nf | char _InterlockedAnd8_nf(char volátil *, char) |
| _InterlockedAnd8_rel | char _InterlockedAnd8_rel(char volátil *, char) |
| _InterlockedAnd_acq | longo _InterlockedAnd_acq(longo volátil *, longo) |
| _InterlockedAnd_nf | longo _InterlockedAnd_nf(longo volátil *, longo) |
| _InterlockedAnd_rel | longo _InterlockedAnd_rel(longo volátil *, longo) |
| _InterlockedCompareExchange | longo __cdecl _InterlockedCompareExchange(longo volátil *, longo, longo) |
| _InterlockedCompareExchange16 | curto _InterlockedCompareExchange16(curto volátil *, curto, curto) |
| _InterlockedCompareExchange16_acq | curto _InterlockedCompareExchange16_acq(curto volátil *, curto, curto) |
| _InterlockedCompareExchange16_nf | curto _InterlockedCompareExchange16_nf(curto volátil *, curto, curto) |
| _InterlockedCompareExchange16_rel | curto _InterlockedCompareExchange16_rel(curto volátil *, curto, curto) |
| _InterlockedCompareExchange64 | __int64 _InterlockedCompareExchange64(__int64 volátil *, __int64, __int64) |
| _InterlockedCompareExchange64_acq | __int64 _InterlockedCompareExchange64_acq(__int64 volátil *, __int64, __int64) |
| _InterlockedCompareExchange64_nf | __int64 _InterlockedCompareExchange64_nf(__int64 volátil *, __int64, __int64) |
| _InterlockedCompareExchange64_rel | __int64 _InterlockedCompareExchange64_rel(__int64 volátil *, __int64, __int64) |
| _InterlockedCompareExchange8 | char _InterlockedCompareExchange8(char volátil *, char, char) |
| _InterlockedCompareExchange8_acq | char _InterlockedCompareExchange8_acq(char volátil *, char, char) |
| _InterlockedCompareExchange8_nf | char _InterlockedCompareExchange8_nf(char volátil *, char, char) |
| _InterlockedCompareExchange8_rel | char _InterlockedCompareExchange8_rel(char volátil *, char, char) |
| _InterlockedCompareExchangePointer | void * _InterlockedCompareExchangePointer(void * volátil *, void *, void *) |
| _InterlockedCompareExchangePointer_acq | void * _InterlockedCompareExchangePointer_acq(void * volátil *, void *, void *) |
| _InterlockedCompareExchangePointer_nf | void * _InterlockedCompareExchangePointer_nf(void * volátil *, void *, void *) |
| _InterlockedCompareExchangePointer_rel | void * _InterlockedCompareExchangePointer_rel(void * volátil *, void *, void *) |
| _InterlockedCompareExchange_acq | longo _InterlockedCompareExchange_acq(longo volátil *, longo, longo) |
| _InterlockedCompareExchange_nf | longo _InterlockedCompareExchange_nf(longo volátil *, longo, longo) |
| _InterlockedCompareExchange_rel | longo _InterlockedCompareExchange_rel(longo volátil *, longo, longo) |
| _InterlockedDecrement | longo __cdecl _InterlockedDecrement(longo volátil *) |
| _InterlockedDecrement16 | _InterlockedDecrement16 curto(volátil curto *) |
| _InterlockedDecrement16_acq | _InterlockedDecrement16_acq curto(volátil curto *) |
| _InterlockedDecrement16_nf | _InterlockedDecrement16_nf curto (volátil curto *) |
| _InterlockedDecrement16_rel | _InterlockedDecrement16_rel curto(volátil curto *) |
| _InterlockedDecrement64 | __int64 _InterlockedDecrement64(__int64 volátil *) |
| _InterlockedDecrement64_acq | __int64 _InterlockedDecrement64_acq(__int64 volátil *) |
| _InterlockedDecrement64_nf | __int64 _InterlockedDecrement64_nf(__int64 volátil *) |
| _InterlockedDecrement64_rel | __int64 _InterlockedDecrement64_rel(__int64 volátil *) |
| _InterlockedDecrement_acq | longo _InterlockedDecrement_acq(longo volátil *) |
| _InterlockedDecrement_nf | longo _InterlockedDecrement_nf(longo volátil *) |
| _InterlockedDecrement_rel | longo _InterlockedDecrement_rel(longo volátil *) |
| _InterlockedExchange | longo __cdecl _InterlockedExchange (longo volátil * _Target, longo) |
| _InterlockedExchange16 | _InterlockedExchange16 curto (volátil curto * _Target, curto) |
| _InterlockedExchange16_acq | _InterlockedExchange16_acq curto (volátil curto * _Target, curto) |
| _InterlockedExchange16_nf | _InterlockedExchange16_nf curto (volátil curto * _Target, curto) |
| _InterlockedExchange64 | __int64 _InterlockedExchange64(__int64 volátil * _Target, __int64) |
| _InterlockedExchange64_acq | __int64 _InterlockedExchange64_acq(__int64 volátil * _Target, __int64) |
| _InterlockedExchange64_nf | __int64 _InterlockedExchange64_nf(__int64 volátil * _Target, __int64) |
| _InterlockedExchange8 | char _InterlockedExchange8(char volátil * _Target, char) |
| _InterlockedExchange8_acq | char _InterlockedExchange8_acq(char volátil * _Target, char) |
| _InterlockedExchange8_nf | char _InterlockedExchange8_nf(char volátil * _Target, char) |
| _InterlockedExchangeAdd | longo __cdecl _InterlockedExchangeAdd(longo volátil *, longo) |
| _InterlockedExchangeAdd16 | curto _InterlockedExchangeAdd16(curto volátil *, curto) |
| _InterlockedExchangeAdd16_acq | curto _InterlockedExchangeAdd16_acq(curto volátil *, curto) |
| _InterlockedExchangeAdd16_nf | curto _InterlockedExchangeAdd16_nf(curto volátil *, curto) |
| _InterlockedExchangeAdd16_rel | curto _InterlockedExchangeAdd16_rel(curto volátil *, curto) |
| _InterlockedExchangeAdd64 | __int64 _InterlockedExchangeAdd64(__int64 volátil *, __int64) |
| _InterlockedExchangeAdd64_acq | __int64 _InterlockedExchangeAdd64_acq(__int64 volátil *, __int64) |
| _InterlockedExchangeAdd64_nf | __int64 _InterlockedExchangeAdd64_nf(__int64 volátil *, __int64) |
| _InterlockedExchangeAdd64_rel | __int64 _InterlockedExchangeAdd64_rel(__int64 volátil *, __int64) |
| _InterlockedExchangeAdd8 | char _InterlockedExchangeAdd8(char volátil *, char) |
| _InterlockedExchangeAdd8_acq | char _InterlockedExchangeAdd8_acq(char volátil *, char) |
| _InterlockedExchangeAdd8_nf | char _InterlockedExchangeAdd8_nf(char volátil *, char) |
| _InterlockedExchangeAdd8_rel | char _InterlockedExchangeAdd8_rel(char volátil *, char) |
| _InterlockedExchangeAdd_acq | longo _InterlockedExchangeAdd_acq(longo volátil *, longo) |
| _InterlockedExchangeAdd_nf | longo _InterlockedExchangeAdd_nf(longo volátil *, longo) |
| _InterlockedExchangeAdd_rel | longo _InterlockedExchangeAdd_rel(longo volátil *, longo) |
| _InterlockedExchangePointer | void * _InterlockedExchangePointer(void * volátil * _Target, void *) |
| _InterlockedExchangePointer_acq | void * _InterlockedExchangePointer_acq(void * volátil * _Target, void *) |
| _InterlockedExchangePointer_nf | void * _InterlockedExchangePointer_nf(void * volátil * _Target, void *) |
| _InterlockedExchange_acq | longo _InterlockedExchange_acq (longo volátil * _Target, longo) |
| _InterlockedExchange_nf | longo _InterlockedExchange_nf (longo volátil * _Target, longo) |
| _InterlockedIncrement | longo __cdecl _InterlockedIncrement(longo volátil *) |
| _InterlockedIncrement16 | _InterlockedIncrement16 curto (volátil curto *) |
| _InterlockedIncrement16_acq | _InterlockedIncrement16_acq curto(volátil curto *) |
| _InterlockedIncrement16_nf | _InterlockedIncrement16_nf curto(volátil curto *) |
| _InterlockedIncrement16_rel | _InterlockedIncrement16_rel curto(volátil curto *) |
| _InterlockedIncrement64 | __int64 _InterlockedIncrement64(__int64 volátil *) |
| _InterlockedIncrement64_acq | __int64 _InterlockedIncrement64_acq(__int64 volátil *) |
| _InterlockedIncrement64_nf | __int64 _InterlockedIncrement64_nf(__int64 volátil *) |
| _InterlockedIncrement64_rel | __int64 _InterlockedIncrement64_rel(__int64 volátil *) |
| _InterlockedIncrement_acq | longo _InterlockedIncrement_acq(longo volátil *) |
| _InterlockedIncrement_nf | longo _InterlockedIncrement_nf(longo volátil *) |
| _InterlockedIncrement_rel | longo _InterlockedIncrement_rel(longo volátil *) |
| _InterlockedOr | longo _InterlockedOr(longo volátil *, longo) |
| _InterlockedOr16 | curto _InterlockedOr16(curto volátil *, curto) |
| _InterlockedOr16_acq | curto _InterlockedOr16_acq(curto volátil *, curto) |
| _InterlockedOr16_nf | curto _InterlockedOr16_nf(curto volátil *, curto) |
| _InterlockedOr16_rel | curto _InterlockedOr16_rel(curto volátil *, curto) |
| _InterlockedOr64 | __int64 _InterlockedOr64(__int64 volátil *, __int64) |
| _InterlockedOr64_acq | __int64 _InterlockedOr64_acq(__int64 volátil *, __int64) |
| _InterlockedOr64_nf | __int64 _InterlockedOr64_nf(__int64 volátil *, __int64) |
| _InterlockedOr64_rel | __int64 _InterlockedOr64_rel(__int64 volátil *, __int64) |
| _InterlockedOr8 | char _InterlockedOr8(char volátil *, char) |
| _InterlockedOr8_acq | char _InterlockedOr8_acq(char volátil *, char) |
| _InterlockedOr8_nf | char _InterlockedOr8_nf(char volátil *, char) |
| _InterlockedOr8_rel | char _InterlockedOr8_rel(char volátil *, char) |
| _InterlockedOr_acq | longo _InterlockedOr_acq(longo volátil *, longo) |
| _InterlockedOr_nf | longo _InterlockedOr_nf(longo volátil *, longo) |
| _InterlockedOr_rel | longo _InterlockedOr_rel(longo volátil *, longo) |
| _InterlockedXor | longo _InterlockedXor(longo volátil *, longo) |
| _InterlockedXor16 | curto _InterlockedXor16(curto volátil *, curto) |
| _InterlockedXor16_acq | curto _InterlockedXor16_acq(curto volátil *, curto) |
| _InterlockedXor16_nf | curto _InterlockedXor16_nf(curto volátil *, curto) |
| _InterlockedXor16_rel | curto _InterlockedXor16_rel(curto volátil *, curto) |
| _InterlockedXor64 | __int64 _InterlockedXor64(__int64 volátil *, __int64) |
| _InterlockedXor64_acq | __int64 _InterlockedXor64_acq(__int64 volátil *, __int64) |
| _InterlockedXor64_nf | __int64 _InterlockedXor64_nf(__int64 volátil *, __int64) |
| _InterlockedXor64_rel | __int64 _InterlockedXor64_rel(__int64 volátil *, __int64) |
| _InterlockedXor8 | char _InterlockedXor8(char volátil *, char) |
| _InterlockedXor8_acq | char _InterlockedXor8_acq(char volátil *, char) |
| _InterlockedXor8_nf | char _InterlockedXor8_nf(char volátil *, char) |
| _InterlockedXor8_rel | char _InterlockedXor8_rel(char volátil *, char) |
| _InterlockedXor_acq | longo _InterlockedXor_acq(longo volátil *, longo) |
| _InterlockedXor_nf | longo _InterlockedXor_nf(longo volátil *, longo) |
| _InterlockedXor_rel | longo _InterlockedXor_rel(longo volátil *, longo) |
_interlockedbittest intrínsecos
Os intrínsecos do teste de bits intertravados simples são comuns a todas as plataformas. ARM adiciona _acq, _rel, e _nf variantes, que apenas modificam a semântica de barreira de uma operação, conforme descrito no Sufixo _nf (sem cerca) anteriormente neste artigo.
| Nome da Função | Protótipo de função |
|---|---|
| _interlockedbittestandreset | char não assinado _interlockedbittestandreset(longo volátil *, longo) |
| _interlockedbittestandreset_acq | char não assinado _interlockedbittestandreset_acq(longo volátil *, longo) |
| _interlockedbittestandreset_nf | char não assinado _interlockedbittestandreset_nf(longo volátil *, longo) |
| _interlockedbittestandreset_rel | char não assinado _interlockedbittestandreset_rel(longo volátil *, longo) |
| _interlockedbittestandset | char não assinado _interlockedbittestandset(longo volátil *, longo) |
| _interlockedbittestandset_acq | char não assinado _interlockedbittestandset_acq(longo volátil *, longo) |
| _interlockedbittestandset_nf | char não assinado _interlockedbittestandset_nf(longo volátil *, longo) |
| _interlockedbittestandset_rel | char não assinado _interlockedbittestandset_rel(longo volátil *, longo) |
Consulte também
Intrínsecos do compilador
ARM64 intrínsecos
Referência do montador ARM
Referência da linguagem C++