segunda-feira, 8 julho, 2024
spot_img
Mais

    Últimos Posts

    spot_img

    É necessária aprovação específica para que os robôs atuem na Bolsa de Valores?

    A famosa futurista Amy Webb, fundadora do Instituto Futuro Hoje, compartilhou sua carta anual sobre tendências para 2024 e sugeriu uma possibilidade interessante diante dos riscos da inteligência artificial: a exigência de uma autorização prévia para que os algoritmos sejam utilizados no mercado financeiro. Essa ideia merece uma reflexão mais detalhada e, neste artigo, abordaremos duas questões importantes.

    Em primeiro lugar, é essencial compreender quais são os requisitos atuais para comercializar soluções automatizadas de análise e recomendação de investimentos, automação de operações e gestão automatizada de carteira.

    Em segundo lugar, analisaremos as possíveis consequências da imposição de uma autorização prévia e específica para que soluções baseadas em inteligência artificial possam ser oferecidas no mercado de capitais.

    Spacca

    Atualmente, não existe uma regulamentação específica para produtos e serviços financeiros que façam uso de inteligência artificial. Portanto, a essência do produto ou serviço determina se as normas pertinentes serão aplicadas, independentemente da tecnologia utilizada.

    Por exemplo, se a IA for utilizada para elaborar um relatório de análise, de acordo com a Resolução CVM nº 20/2021, ou para recomendar investimentos em valores mobiliários, a pessoa ou empresa responsável por oferecer a solução deverá estar registrada como analista de valores mobiliários. Da mesma forma, se o serviço fornecido for equivalente à consultoria de valores mobiliários, estará sujeito ao registro definido pela Resolução CVM nº 19/2021. Além disso, as soluções de carteira administrada e gestão automatizada de carteira (como um gestor-robô) requerem que o provedor do serviço esteja registrado como administrador de carteira, conforme a Resolução CVM nº 21/2021, além de seguir as regras da Anbima.

    As soluções para negociação algorítmica, com alguma intervenção por parte do investidor final, encontram-se em uma situação peculiar. Geralmente, a oferta de soluções desse tipo é tratada como produtos tecnológicos que representam um meio para a oferta de um serviço regulamentado, de forma semelhante ao que acontece com analistas e consultores.

    Portanto, se uma corretora oferece uma solução para configurar pontos de entrada e saída com base em dados históricos de negociação, a responsabilidade por falhas no serviço recai sobre a corretora, como intermediário, conforme a Resolução CVM nº 35/2021. A automação de operações pela plataforma SmarttBot é um exemplo de solução semelhante ao que poderíamos chamar de “corretora como serviço”, assim como outros produtos que permitem, além da visualização de dados intradiários, a programação de compras e vendas por meio de um intermediário regulamentado, que assume a responsabilidade pelo serviço oferecido aos investidores.

    Quanto aos high frequency traders (HFT), não há exigência de autorização ou mesmo uma definição legal ou infralegal, embora o assunto tenha sido discutido há cerca de dez anos, após a publicação de uma consulta pública pela CVM. do livro Flash Boys, do repórter Michael Lewis, que gerou incertezas sobre a licitude da atuação desse tipo de participante nos mercados de bolsa. No momento, a atuação de HFTs no Brasil é condicionada a ajustes no âmbito dos serviços de acesso direto ao mercado (DMA) disponibilizados pela B3 e, além disso, suas operações são alvo de fiscalização pela BSM Supervisão de Mercados e pela CVM.

    No dia seguinte: aprovações específicas?
    A proposta de Amy Webb representa ir além de uma autorização genérica para uma atividade como análise, consultoria, gestão ou intermediação. A depender dos riscos específicos de uma solução de IA que substitua um trabalho sujeito a uma permissão estatal, o produto deveria ser sujeito a um teste para assegurar sua adequação e, sobretudo, conformidade com padrões éticos.

    Para exemplificar o problema, Webb menciona uma pesquisa na qual foi apresentado um algoritmo que seria capaz de realizar operações proibidas pela legislação e ocultar a ilicitude de sua prática.

    Nesse cenário, da mesma forma que uma aeronave precisa ser homologada para voar ou uma nova droga requer a demonstração de resultados acerca da sua eficácia e riscos, uma solução de IA (seja no mercado financeiro ou em outro âmbito) deveria, segundo sugerido por Webb, passar em algum tipo de teste, incluindo a verificação de seu processo decisório diante de dilemas éticos.

    A sugestão é compreensível diante da preocupação acerca dos riscos relativos à IA, alguns exagerados outros ainda desconhecidos.

    Entretanto, devemos ter em mente a complexidade de serem elaborados e realizados testes para homologação destes algoritmos, diante da sua capacidade de adaptação a novos dados e cenários (um comportamento hoje pode não ser o mesmo amanhã) ou até mesmo sua capacidade de burlar esses testes. Some-se a isso a dificuldade enfrentada pelo próprio Estado em termos de capacidade técnica e de pessoal para analisar algoritmos sofisticados e decidir o que pode ou não ser colocado em mercado.

    Nesse contexto, a solução mais eficiente, do ponto de vista de impacto regulatório, ainda parece ser a responsabilização do ofertante do produto (ou a solidariedade em uma cadeia de ofertantes). Nesse modelo, a despeito da tecnologia utilizada e sua complexidade, os incentivos podem ser ajustados para exigir a adoção de padrões de qualidade de gestão de riscos adequados, punindo empresas negligentes ou com controles ineficazes.

    A flexibilização prévia apostando em um enforcement posterior tem seus efeitos colaterais. Diante de uma “tragédia” como o Flash Crash de 2010 ou colapsos abruptos como ocorreu com a Knight Capital, que ficou insolvente em virtude de uma falha de um algoritmo insuficientemente testado, a responsabilização posterior pode ser tardia e ineficiente. A discussão é semelhante ao dilema entre conflito formal e conflito material de interesses no tocante a ilícitos relativos a administradores e controladores de companhias: é melhor prevenir ou remediar?

    Caminhos
    O Projeto de Lei do Senado nº 2.338/2023 preconiza a transparência do processo decisório dos algoritmos de IA, bem como a avaliação prévia de risco das soluções. Curiosamente, o Projeto não exige uma autorização prévia, como foi o caso dos prestadores de serviços de ativos virtuais da Lei nº 14.478/2022.

    Ou seja, embora haja a previsão de uma autoridaderegulamentar ao invés de regulatória, limitar ao invés de controlar, base de registros ao invés de base de dados, monitorá-los ao invés de fiscalizá-los, sanções aos fornecedores ao invés de aplicar sanções, prevê-se ao invés de não fica claro, a priori, em tempo real ou a posteriori ao invés de a priori, aproxima-se mais da estratégia da LGPD ao invés de aproxima-se mais da estratégia da LGPD, operador de sistemas de inteligência ao invés de operador de sistema de inteligência artificial, negados ao invés de vedadas, estritamente definidos ao invés de estritamente delimitados, atividades de alto risco elencadas em vez de elenca catorze atividades consideradas de alto risco, regulador sublegal em vez de regulador infralegal, avaliação de crédito ao invés de avaliação da capacidade de endividamento, ao invés de por fim, o regime emprestado da LGPD parece não fazer sentido ao invés de Por fim, a responsabilidade civil não afasta o regime do Código de Defesa do Consumidor, não é compatível ao invés de não ser compatível, regime de areia regulatória ao invés de regime de sandbox, impacto algorítmico ao invés de avaliação de impacto algorítmico, na oferta ao invés de ao atrasar a oferta, retirar a última frase.

    Ajustar a frase final para: Não é possível regular o que não se compreende totalmente. Por isso, é crucial garantir a disponibilidade das informações necessárias para embasar as decisões regulatórias, o que demanda interação contínua entre academia, empresas e Estado.

    spot_img

    Últimas Postagens

    spot_img

    Não perca

    Brasília
    céu limpo
    12.5 ° C
    12.5 °
    12.5 °
    76 %
    0.5kmh
    0 %
    seg
    28 °
    ter
    29 °
    qua
    30 °
    qui
    29 °
    sex
    22 °

    3.139.236.150
    Você não pode copiar o conteúdo desta página!