Novos produtos e serviços são criados para que as pessoas possam realizar algo de um jeito melhor do que antes, ou para fazer coisas que até então não podiam. Mas a inovação também traz riscos. O grau de risco de uma inovação depende, em grande medida, de escolhas feitas pelas pessoas na hora de usá-la.

Responda à seguinte pergunta: se tivesse de ir de carro de Boston a Nova York debaixo de neve, você se sentiria mais seguro num veículo com tração nas quatro rodas ou só em duas? O leitor provavelmente optaria pela tração nas quatro. Mas, se for analisar estatísticas de acidentes nas estradas, você veria que a chegada da tração nas quatro rodas não ajudou muito a reduzir o índice de acidentes por quilômetro rodado em estradas durante nevascas — o que talvez o levasse a concluir que a inovação não tornou o ato de dirigir na neve mais seguro.

Obviamente, o problema não é que a inovação não tenha contribuído para a segurança, mas sim que hábitos de motoristas ao volante mudaram por se sentirem mais seguros. Hoje, há mais gente encarando a estrada na neve do que antigamente — e, provavelmente, dirigindo com menos cuidado. Se o leitor e todo mundo mais fizesse o trecho de Boston a Nova York à mesma velocidade, e se o total de veículos nas estradas tivesse permanecido inalterado, a tração nas quatro rodas teria, sim, contribuído muito para a segurança. Já se você e todos os demais resolvessem ir muito mais rápido, o risco de dirigir na neve seria o mesmo de antigamente. Na prática, a pessoa está fazendo uma escolha (consciente ou não) entre reduzir o risco e melhorar o desempenho.

Se o grau de risco de uma inovação depende de escolhas feitas pelas pessoas, quanto mais informadas e conscientes forem suas escolhas, pela lógica menor devia ser o risco. Mas, ao ponderarem as consequências de uma inovação — de que modo vai mudar os trade-offs que as pessoas fazem e seu comportamento —, empresas e governantes devem estar cientes das limitações dos modelos que embasam decisões de um indivíduo sobre como usar a inovação. Como veremos, certos modelos trazem falhas fundamentais e devem ser descartados, enquanto outros podem ser aprimorados. Certos modelos são adequados para situações específicas, enquanto outros exigem usuários sofisticados para produzir bons resultados. E mesmo quando a pessoa usa o modelo certo para decidir como usar uma inovação — chegando ao justo equilíbrio entre risco e desempenho —, a experiência mostra que é quase impossível prever como esse novo comportamento irá influenciar o grau de risco de outras escolhas e condutas (da pessoa e de outros indivíduos), muitas vezes em áreas sem qualquer relação aparente. É a velha história das consequências involuntárias. Quanto mais complexo o sistema no qual a inovação se insere, mais prováveis e graves serão essas consequências. Aliás, muitos dos riscos associados a uma inovação decorrem não da inovação propriamente dita, mas da infraestrutura na qual é inserida.

A moral da história é que toda inovação muda o equilíbrio entre risco e retorno. Para minimizar riscos e consequências involuntárias, usuários, empresas e governantes devem entender como fazer escolhas embasadas em relação a novos produtos e serviços. Devem, especificamente, respeitar cinco regrinhas gerais.

Entender que é preciso um modelo

Ao adotar um novo produto ou tecnologia, sua decisão sobre o risco e o retorno é influenciada por aquilo que a ciência cognitiva chama de modelo mental. No caso da viagem de carro entre Boston e Nova York debaixo de neve, o leitor talvez raciocine que, embora não possa controlar todo risco que o trajeto traz, pode, sim, definir o tipo de carro que dirige e a velocidade à qual dirige. Um modelo mental simples para avaliar trade-offs entre risco e desempenho, portanto, pode ser representado por um gráfico que compara a segurança com o modelo de carro e a velocidade.

Naturalmente, esse modelo é uma grande simplificação. A relação entre segurança e velocidade vai depender de outras variáveis — condições do tempo e da estrada, o volume de tráfego, a velocidade de outros carros na via —, muitas delas fora de seu controle. Para fazer as escolhas certas, é preciso entender exatamente qual a relação entre todas essas variáveis ​​e a velocidade à qual se dirige. Obviamente, quanto mais fatores forem computados, mais complicado é determinar os riscos associados a uma dada velocidade. Para fazer uma avaliação precisa, é preciso reunir dados, estimar parâmetros para todos os fatores e determinar de que modo esses fatores podem interagir.

De modo geral, a maioria dos modelos aplicados a situações na vida real existem de forma semiconsciente na mente das pessoas. Mesmo hoje, ao dirigir um carro, automaticamente recorremos a modelos mentais robustos, porém imprecisos, nos quais relações entre fatores são inferidas com base na experiência. Mas, com o advento da computação, mais e mais atividades que tradicionalmente dependeram da cognição humana se provam aptas à modelagem matemática formal. Em um voo comercial que cruza o Atlântico, por exemplo, o avião será pilotado, em grande medida, por um computador cujas “decisões” sobre velocidade, altitude e trajetória são baseadas em modelos matemáticos que processam continuamente dados sobre localização, pressão atmosférica, peso da aeronave, tráfego aéreo, velocidade dos ventos e uma série de outros fatores. Hoje, o piloto automático é tão sofisticado que pode até fazer o pouso sozinho do avião.

E se na aviação é assim, no mercado financeiro também: a fórmula Black-Scholes de avaliação de opções de ações, que ajudei a criar na década de 1970, busca estabelecer até que ponto fatores externos mensuráveis ou observáveis — para ser mais específico, o preço do ativo subjacente, a volatilidade desse preço, taxas de juros e data de expiração — podem estar ligados ao preço de uma opção de compra desse ativo específico. Instituições financeiras usam modelos como o Black-Scholes para permitir que computadores realizem operações. É possível, por exemplo, programar um computador para lançar uma ordem de compra ou venda de uma ação ou de uma opção se o programa observar, com base em dados do mercado, que a cotação real da ação ou da opção está se desviando do valor produzido pela Black-Scholes ou algum outro modelo rigoroso de avaliação.

Parece sensato, portanto, supor que quanto mais fatores seu modelo computar, melhor será a avaliação dos riscos assumidos ao decidir se e como adotar uma determinada inovação. Isso explica, em grande medida, a popularidade da modelagem matemática, especialmente no caso de inovações tecnológicas e financeiras. E muitos desses modelos produzem resultados bastante bons. A metodologia geral de reprodução no cerne da Black-Scholes, por exemplo, já foi bem fundamentada por evidências empíricas: o valor real de opções e de outros derivativos parece corresponder ao valor p
ro
jetado pelo modelo, inclusive por versões simplificadas deste. Mas é bem aí, quando se começa a achar que sua avaliação é infalível, que é preciso redobrar as atenções.

Aceitar as limitações do modelo

Na hora de montar e utilizar um modelo — para precificar instrumentos financeiros, para projetar o piloto automático de um avião —, é fundamental entender a diferença entre um modelo incorreto e um incompleto.

Num modelo incorreto, a lógica interna ou as premissas subjacentes são evidentemente equivocadas. É o caso de um modelo matemático que tente calcular a circunferência de um círculo usando um valor de 4,14 para o pi. Isso não significa, obviamente, que todo erro é sempre fácil de identificar. Em um avião, por exemplo, um modelo de navegação que situe o aeroporto de La Guardia em Boston em vez de Nova York talvez não seja reconhecido como falho, a menos que o avião que comanda tente chegar àquele aeroporto. Quando constatado que um modelo se baseia em uma premissa basicamente errada, a única coisa certa a fazer é deixar de usá-lo. Já a incompletude é um problema muito distinto e é uma característica presente em todo modelo. O matemático austríaco Kurt Gödel, naturalizado americano, provou que nenhum modelo é “correto” se pensarmos na representação completa da realidade. Como modelo para o número pi, 3,14 não é errado, mas é incompleto. Um modelo de 3,14159 é menos incompleto. Observe que o modelo menos incompleto é um avanço em relação à versão básica, não um total substituto. Não é preciso descartar o modelo básico — apenas adicionar a ele.

A distinção entre incorreção e incompletude é importante para cientistas. À medida que desenvolve modelos que descrevem nosso mundo e permitem que façamos projeções, a ciência rejeita e deixa de usar aqueles que constata serem incorretos, seja com a análise formal do modo como operam ou com o teste de premissas subjacentes. Em vez de errados, modelos que sobrevivem são considerados incompletos; não podem, portanto, ser provados. Voltemos ao Black-Scholes. Hoje, há um arsenal crescente de modelos de precificação de opções que levam a mesma metodologia subjacente além da fórmula básica, computando mais variáveis ​​e premissas mais robustas para fins específicos.

Em geral, até que seja descoberto algum erro fundamental de matemática no modelo ou exposta alguma falha nas premissas que o sustentam, o curso lógico é aprimorar em vez de rejeitar o modelo. Aqui, contudo, é muito mais fácil falar do que fazer, o que nos leva ao próximo desafio.

Esperar o inesperado

Por maiores que sejam o esforço e a perspicácia, certos fatores que poderiam entrar num modelo ficarão de fora. Nenhum ser humano é capaz de prever todas as consequências de uma inovação, por mais óbvias que possam parecer em retrospecto. Isso vale especialmente quando a inovação interage com mudanças sem qualquer relação no ambiente — mudanças que, portanto, sequer são reconhecidas como fatores de risco.

A crise financeira de 2007–2009 é um bom exemplo de consequências involuntárias. Ao reduzir consideravelmente custos de operações, inovações no mercado de crédito imobiliário facilitaram não só a compra de imóveis, mas também o refinanciamento de hipotecas ou o aumento do valor emprestado. Nos Estados Unidos, qualquer um podia usar a casa como garantia para conseguir crédito — e, com isso, gastar com carros, viagens e outros bens ​​e serviços. Não há nada intrinsecamente errado nisso, é claro; é uma questão de escolha pessoal.

A desejada (e boa) consequência da inovação no crédito imobiliário foi aumentar a disponibilidade dessa opção de baixo custo. Mas houve também uma consequência involuntária: já que outras duas tendências econômicas em si benignas — queda nos juros e valorização contínua dos imóveis — coincidiram com a mudança em práticas de liberação de crédito, um número atipicamente elevado de proprietários de imóveis foi encorajado a repactuar hipotecas ao mesmo tempo, convertendo o patrimônio embutido no imóvel por uma dívida de longo prazo a juros baixos.

Classificação de risco não é tudo

Na crise do mercado de classificação de risco nos EUA em 2008, uma das grandes vítimas foram as próprias agências de classificação. Sua credibilidade foi seriamente abalada quando muitos títulos que ostentavam nota AAA acabaram sendo negociados com fortes descontos.

Gestores de investimento que tomaram decisões com base na classificação de risco registraram sérios prejuízos. Mas o modelo de classificação que as agências usavam era mesmo falho? Ao longo do tempo, esse modelo — fundado quase que exclusivamente no cálculo da probabilidade de calote do emissor — funcionara muito bem, e as agências, que viam seu papel como o de simplesmente avaliar a solidez de práticas financeiras de empresas e governos, provavelmente achavam que era adequado para o propósito.

Naturalmente, é possível discutir se a visão limitada que as agências tinham de seu papel era condizente. Certamente é possível questionar o potencial conflito de interesses quando emissores pagam a essas mesmas agências por serviços de consultoria e classificação. O que é indiscutível (certamente em retrospecto) é que o modelo de avaliação não era uma ferramenta adequada para a gestão de uma carteira de títulos. Isso porque probabilidade de calote não é o único fator que determina o valor de um título e seu risco. Outros fatores importantes são o provável volume do investimento que poderia ser recuperado em caso de calote e até que ponto as perspectivas do emissor dos títulos refletem o ciclo econômico.

Esse último dado é particularmente importante em momentos de crise: se uma empresa dá um calote quando a sorte do detentor dos títulos está sofrendo por outras razões, o impacto para a saúde do investidor será pior do que se o calote ocorrer em fases boas. Logo, o senso comum diria que um investidor pagaria menos por um título emitido por uma empresa em uma atividade pro-cíclica do que por um emitido por uma empresa em uma atividade anticíclica (o mesmo diz a teoria financeira). Além disso, um título com uma baixa taxa de recuperação do investimento deveria, em tese, ser negociado por um valor menor do que um título com alta taxa de recuperação e a mesma probabilidade de calote.

Esses fatores não faziam qualquer diferença para as agências, no entanto, que baseavam sua avaliação estritamente na probabilidade de calote. Isso significava que empresas pro-cíclicas e anticíclicas com a mesma probabilidade de calote levavam a mesma nota. Na mesma veia, dois títulos poderiam receber o mesmo rating ainda que, em caso de calote, a recuperação do investimento garantido por um deles pudesse ser maior. Como resultado
dessas discrepâncias, títulos com classificação AAA podiam ser negociados a preços bastante distintos no mercado de dívida.

Suponhamos, agora, que o leitor seja um gestor de investimento e que um cliente queira aplicar seu dinheiro em títulos de longo prazo, com nota AAA pela Standard & Poor’s. Responsável que é, você buscaria os títulos mais baratos com nota AAA por oferecerem um retorno melhor pelo mesmo risco estimado. O problema é que, com isso, você quase certamente montaria uma carteira composta fortemente de títulos pro-cíclicos, de baixas taxas de recuperação, cujos valores se deteriorariam mais em uma crise econômica, talvez de forma bem drástica.

O fiasco da classificação de risco é, portanto, um bom exemplo de como a adoção de um modelo inadequado para o propósito — no caso, usar um modelo para prever a probabilidade de calote, e não um de precificação de títulos, para administrar uma carteira — pode resultar em decisões catastróficas. Vale dizer que investidores que usaram modelos projetados para a precificação de títulos se saíram melhor do que aqueles que se fiaram basicamente na classificação de risco.

Era um círculo vicioso: a valorização dos imóveis aumentava o patrimônio do proprietário — patrimônio que podia, então, ser convertido em crédito e utilizado para o consumo, num processo que começou a ser repetido sem parar. Enquanto a tendência se manteve, donos de imóveis passaram a ver tal conversão como uma fonte regular de financiamento para o consumo corrente, em vez de solução para financiar uma compra ou um investimento ocasionais. Com o tempo, o endividamento de toda classe de proprietários de imóveis começou a subir — em vez de diminuir, como normalmente ocorreria quando o preço de imóveis está subindo —, muitas vezes atingindo o nível de alavancagem de quem comprava o primeiro imóvel.

Na ausência de qualquer uma das três condições (mercado eficiente de refinanciamento de hipotecas, juros baixos e, acima de tudo, imóveis em contínua valorização), dificilmente teria havido uma realavancagem tão coordenada. Mas, devido à convergência das três condições, o volume de refinanciamento de hipotecas nos EUA foi imenso durante boa parte da década anterior à crise. O resultado foi que muitos donos de imóveis enfrentavam, ao mesmo tempo, a mesma exposição ao risco de desvalorização de imóveis, o que criou um risco sistêmico.

Tal risco foi agravado pela assimetria na capacidade de donos de imóveis de acumular o risco e de reduzi-lo. Quando o valor de imóveis está subindo, é fácil contrair empréstimos em incrementos e dar como garantia o valor maior do bem. Mas, se a tendência se inverte e o valor do imóvel cai, a alavancagem e o risco do proprietário sobem; já seu patrimônio, com a desvalorização, encolhe. Se percebe isso e resolve reequilibrar a relação para um nível de risco mais aceitável, a pessoa descobre a assimetria: não há jeito prático de reduzir a dívida de forma incremental. É preciso vender o imóvel inteiro ou não fazer nada — não há como vender parte do bem (leia mais sobre a assimetria no ajuste do risco no artigo “Systemic Risk and the Refinancing Ratchet Effect”, de Amir Khandani, Andrew W. Lo e Robert C. Merton, a ser publicado, em inglês, no periódico Journal of Financial Economics). Devido a essa indivisibilidade fundamental, donos de imóveis costumam optar por não fazer nada, na esperança de que a queda dos preços vá ser revertida ou, no mínimo, interrompida. Quando continua, o aperto financeiro que a pessoa sente a certa altura pode ser suficiente para obrigá-la a vender o imóvel. Com isso, um monte de casas pode ser posto à venda ao mesmo tempo, o que dificilmente contribui para a sonhada reversão da tendência de preços. Nessas condições, o mercado de crédito imobiliário pode ficar particularmente vulnerável ​​à desvalorização de imóveis, por mais modesta que seja, e à alta dos juros. Foi exatamente o que ocorreu durante a recente crise financeira.

Volto a reiterar que os três fatores envolvidos na criação do risco — oportunidades eficientes de refinanciamento, juros em queda e valorização de imóveis — eram, isoladamente, benignos. É difícil imaginar que algum órgão regulador fosse soar um alerta sobre qualquer uma dessas condições. Em resposta ao estouro da bolha de tecnologia em 2000, ao choque do 9 de setembro e à ameaça de recessão, por exemplo, o banco central americano (o Federal Reserve) sistematicamente derrubou a taxa de juros interbancária — de 6,5% em maio de 2000 para 1% em junho de 2003 —, o que estimulou o refinanciamento de hipotecas e os canais para tal. Como ocorrera até 2007, juros mais baixos e novas modalidades de financiamento permitiram que mais gente comprasse casas até então além de seus meios; a valorização de imóveis elevou consideravelmente o patrimônio dessas famílias; e oportunidades mais eficientes de refinanciamento permitiram que essa elevação fosse convertida em dinheiro, alimentando o consumo e o crescimento econômico geral. Que político ou autoridade reguladora buscaria interromper esse ciclo aparentemente virtuoso?

Entender o uso e o usuário

Suponhamos que o leitor tenha criado um modelo basicamente correto: ou seja, um modelo que não desafie as leis da natureza ou da não arbitragem, e que tampouco contenha premissas evidentemente falhas. Suponhamos, ainda, que seja mais completo do que outros modelos atuais. Ainda assim, nada garante que surtirá efeito em seu caso. A utilidade de um modelo não depende apenas do modelo em si, mas também de quem o está usando e com qual finalidade.

Vejamos primeiro a questão da finalidade. Ninguém optaria por uma Ferrari para circular por um caminho acidentado e tampouco por uma Land Rover para fazer bonito numa “autostrada” italiana. No caso da Black-Scholes, é o mesmo: a fórmula não dá uma estimativa suficientemente boa do valor de opções para a negociação desse tipo de instrumento a velocidades elevadas, atividade que exige cotações em tempo real. Por outro lado, modelos usados ​​para operações a ritmo acelerado são inúteis para a declaração, à luz de princípios contábeis geralmente aceitos, da despesa com opções de ações concedidas a executivos em demonstrativos de empresas. Nesse contexto, é importante que as engrenagens do modelo sejam transparentes, que o modelo possa ser aplicado igualmente por distintas empresas e que os resultados apresentados possam ser reproduzidos e verificados por terceiros. Aqui, a clássica fórmula de Black-Scholes garante a padronização e a reprodutibilidade necessárias, pois funciona com um número limitado de variáveis cujo valor estimado é de caráter público.

Um modelo tampouco é confiável se a pessoa que o usa não o entende ou desconhece suas limitações. Para a maioria dos alunos do ensino médio, um modelo razoável para estimar a circunferência de um c

írculo é o que trabalha com o valor de 22/7 para pi. O resultado obtido terá uma aproximação de umas duas casas decimais, o que em geral é suficiente para trabalhos nesse estágio do aprendizado. Aqui, dar ao aluno um modelo muito mais complicado seria como entregar a chave da Ferrari lá atrás. Além de grande a chance de que bata o carro, o estudante não precisa se deslocar com tanta velocidade para a escola.

Ao pensar em quem usa um modelo e com que finalidade, em geral é preciso repensar o que qualifica uma pessoa para uma determinada tarefa. Para muitos, o herói do filme Top Gun, interpretado por Tom Cruise, seria o ideal do piloto de caça: um sujeito ousado, que rompe regras e aposta no instinto em vez de se fiar no instrumental do jato. Han Solo, o personagem de Harrison Ford em Guerra nas Estrelas, segue o mesmo molde. Só que, hoje, o ideal para um caça é ser operado por sistemas computadorizados que reagem a mudanças externas no ambiente em milésimos de segundos, velocidade que ser humano nenhum tem como equiparar. Aliás, colocar um sistema aeronáutico sofisticadíssimo, de zilhões de dólares, nas mãos de um rebelde destemido seria algo bastante arriscado. O melhor piloto, aqui, pode ser alguém que entenda muito de computador, conheça o modelo de cabo a rabo e seja treinado para captar rapidamente qualquer sinal de que não esteja funcionando corretamente, situação na qual a melhor resposta provavelmente seria abortar a missão em vez de prosseguir.

O que importa não é discutir os méritos relativos de pilotos destemidos e de geniozinhos da computação. É, antes, demonstrar que um modelo só pode ser realmente avaliado como um tripé: modelo, aplicação e usuário. Um modelo mais completo, mas mais complicado, pode acarretar riscos maiores do que um modelo mais rudimentar caso o usuário não seja qualificado para a tarefa. Um exemplo é a recente crise da classificação de risco nos EUA. O erro na aplicação de modelos explicaria por que tantos gestores de investimentos tiveram perdas tão grandes com títulos classificados com AAA, como mostra o boxe “Classificação de risco não é tudo”.

Checar a infraestrutura

Por último, ao considerarmos as consequências de uma inovação, é preciso reconhecer que seus benefícios e riscos são, em grande medida, determinados não por escolhas feitas por indivíduos sobre como usá-la, mas pela infraestrutura na qual é inserida. Inovadores e governantes, em particular, devem estar atentos a esse risco. Suponhamos, por exemplo, que uma rede ferroviária queira operar um trem de passageiros de alta velocidade.
Se os trilhos do sistema atual não comportarem altas velocidades e, por ignorância ou alta tolerância ao risco a operadora da malha optar por rodar o trem a altas velocidades, em algum momento haverá uma colisão, com consequências desastrosas para os passageiros. Além disso, é bem provável que isso destrua os trilhos, o que significa que todos aqueles que usam a rede acabarão sendo afetados. Usuários não vão conseguir chegar ao trabalho, hospitais não receberão novos equipamentos e por aí vai.

Logo, a primeira tarefa dos responsáveis pela malha ferroviária é garantir que os trilhos comportem com segurança os trens que rodam por ali. E o que fazer quanto ao trem de alta velocidade? A resposta mais simples e imediata é impor um limite seguro de velocidade. Mas se essa for a única resposta, não vai haver progresso no transporte ferroviário — por que perder tempo criando um trem de alta velocidade se será impossível operar a altas velocidades?

Uma solução melhor é começar a modernizar os trilhos e, ao mesmo tempo, impor tetos à velocidade até que o vão tecnológico que separa o produto da infraestrutura tenha sido fechado. Infelizmente, na vida real nem sempre é fácil achar respostas simples como essa, pois poucas inovações de vulto serão um sucesso tão óbvio como o trem de alta velocidade (e tenho certeza de que há gente que questione essa inovação também). O ritmo de inovação em alguns setores é altíssimo, mas a taxa de insucesso também. Em geral, portanto, é bastante inviável mudar a infraestrutura para acomodar toda inovação que chega. Além disso, a vida útil de uma inovação espetacular pode ser muito menor do que a de um trem de alta velocidade, o que significa que, para acompanhar o ritmo, seria preciso submeter a infraestrutura a mudanças constantes.

O fato é que mudanças na infraestrutura em geral ocorrem depois de mudanças em produtos e serviços — desequilíbrio que pode ser grande fonte de risco. Para o sistema financeiro, não é nenhuma novidade. É só ver o quase colapso de sistemas de processamento de transações com ações em muitas firmas de corretagem nos EUA durante a alta das bolsas na década de 1970. A tecnologia de processamento de ordens da época não tinha como lidar com o volume inédito de transações que inundava a mesa de operações de corretoras. O congestionamento significava que firmas e seus clientes tinham informações incompletas e, em muitos casos, imprecisas, sobre as respectivas posições financeiras. O problema levou certas firmas ao colapso.

Graças à cooperação entre as principais bolsas de valores, chegou-se a uma solução temporária. Durante um tempo, as bolsas limitaram o horário de operação para permitir que as firmas eliminassem o gargalo no processamento de pedidos e na conciliação de contas. O problema subjacente só foi resolvido depois que corretoras e bolsas fizeram pesados investimentos em novas tecnologias de processamento de dados. Nesse caso específico, o problema de infraestrutura foi resolvido sem intervenção do governo. Hoje, contudo, dificilmente seria possível evitar tal intervenção se surgisse um problema de magnitude similar com operações em bolsa. Devido ao número de intermediários financeiros e bolsas de valores (incluindo bolsas de instrumentos derivativos) no mundo todo, seria extremamente difícil que iniciativas privadas de coordenação voluntária dessem certo.

O risco trazido pelo desequilíbrio entre a inovação em produtos e serviços e a inovação na infraestrutura é agravado pelo fato de que produtos e serviços seguem evoluindo depois de lançados, e essa evolução não é independente da infraestrutura. Suponhamos que um banco ou corretora lance um produto customizado no mercado financeiro. À medida que a demanda sobe, o produto ou serviço é logo padronizado e começa a ser fornecido diretamente a usuários por meio de um mecanismo de mercado, como uma bolsa, a custos bem menores.

Foi o que aconteceu 50 anos atrás com a popularização de fundos mútuos. Antes dessa novidade, a única saída para um investidor isolado montar uma carteira diversificada de investimentos era comprando uma seleção de ações em bolsa. Mas, exceto para um punhado de grandes investidores, era algo caro e inviável — o custo de transações em geral era elevadíssimo e papéis desejados normalmente não eram negociados em lotes pequenos o bastante para permitir uma boa diversificação. Com o surgimento de intermediários agregadores como fundos mútuos, o pequeno investidor pôde aplicar em carteiras consideravelmente mais diversificadas. Mais tarde, outras inovações permitiram a criação de contratos futuros para diversos índices de ações no mundo todo. Esses contratos negociados em bolsa derrubaram ainda mais os custos, aumentaram a diversificação no mercado americano e abriram novas oportunidades para a diversificaçã

o internacional. Deram ao investidor flexibilidade ainda maior na definição da alavancagem e no controle de riscos. Futuros de índices, em particular, tornaram viável a criação de opções negociadas em bolsa em carteiras diversificadas. Mais recentemente, intermediários começaram a usar swaps de retorno de ações para criar contratos customizados que especificam o índice de ações, o horizonte de tempo do investimento e até a cesta de moedas para pagamentos.

Logo, o meio institucional de diversificação do investimento em bolsa para pequenos investidores foi, a princípio, o mercado de ações de empresas isoladas. Graças à inovação, esse mercado foi substituído por intermediários como fundos mútuos. Em seguida, com futuros de índices, o investidor mais uma vez podia aplicar diretamente no mercado. Agora, vemos intermediários inovando com fundos de índices (ETFs, na sigla em inglês) que permitem a negociação de carteiras diversificadas em bolsa.

O risco desse tipo de dinâmica é, naturalmente, que fica muito difícil a certa altura saber exatamente que mudanças são necessárias na infraestrutura. Ainda que pudesse promover alterações na infraestrutura para coincidir com a chegada de uma novidade, o leitor talvez descobriria que num intervalo curtíssimo de tempo essas mudanças já seriam irrelevantes, pois o produto já estaria sendo vendido por distintos atores por meio de canais distintos para distintos usuários que precisam dele para distintos fins. Para complicar a coisa, mudanças na infraestrutura podem produzir consequências involuntárias próprias.

Uma avaliação adequada dos riscos envolvidos em uma inovação requer uma modelagem cuidadosa das consequências. Mas nossa capacidade de criar modelos complexos o bastante para abarcar todas as dimensões do risco é limitada. Toda inovação sempre poderá trazer consequências inesperadas, e modelos são, pela própria natureza, representações incompletas de realidades complexas. Além disso, um modelo é condicionado pela proficiência de seus usuários, e pode facilmente ser mal aplicado. Por último, é preciso reconhecer que muitos dos riscos de uma inovação decorrem da infraestrutura que a cerca. É particularmente difícil pensar em todas as consequências, na infraestrutura, da inovação em setores complexos e em rápida evolução como finanças e TI. No final, qualquer inovação é um salto no desconhecido. Para que haja progresso, no entanto, é um fato que precisamos aceitar e administrar.

Robert C. Merton é titular da cátedra School of Management Distinguished Professor of Finance na Sloan School of Management (MIT) e University Professor Emeritus da Harvard University, ambas nos EUA. Recebeu o Nobel de economia em 1997.

Share with your friends









Submit