domingo, 12 de abril de 2026

Estudos de Caso?

por Renato Paulo Nicácio Pedrosa


"A abordagem delineada por Eisenhardt é uma resposta a uma década de fortes e reiteradas solicitações por uma pesquisa mais qualitativa, contextualizante e interessante" Dyer e Wilkins, 1991.


Textos:

EISENHARDT, K. M. Building theories from case study research. Academy of Management Review, v. 14, n. 4, p. 532-550, 1989. DOI: 10.2307/258557.

YIN, Robert K (2005). Estudo de caso: planejamento e métodos. 2. ed. Porto Alegre: Bookman.


O artigo de Eisenhardt (1989) no Academy of Management Review propõe um roteiro para a construção de teorias a partir de estudos de caso. A autora parte de um diagnóstico de fragmentação: havia peças metodológicas disponíveis na literatura — Glaser e Strauss (1967) sobre grounded theory, Yin (1981, 1984) sobre design de pesquisa, Miles e Huberman (1984) sobre análise de dados qualitativos — mas sem integração sistemática nem clareza sobre quando e como empregá-las conjuntamente. O artigo se propõe a preencher essa lacuna com dois movimentos: oferecer o roteiro integrado e situar a construção de teoria por estudos de caso no contexto mais amplo da pesquisa em ciências sociais.

A literatura prévia contribuiu com fragmentos valiosos, mas dispersos. Glaser e Strauss detalharam o método comparativo contínuo, enfatizando a emergência de categorias a partir dos dados. Yin trouxe rigor ao design dos casos e formulou a lógica de replicação essencial à análise múltipla. Miles e Huberman codificaram técnicas de apresentação e gestão de dados qualitativos. Pesquisadores ativos como Gersick, Harris e Sutton, e a própria Eisenhardt com Bourgeois, acrescentaram variações práticas não previstas nos manuais. O resultado era um campo metodologicamente rico, porém sem mapa.

O estudo de caso é definido como estratégia de pesquisa voltada à compreensão das dinâmicas presentes em contextos singulares. Pode envolver caso único ou múltiplos casos, um ou vários níveis de análise, e combinar fontes diversas — arquivos, entrevistas, questionários, observação. Os dados podem ser qualitativos, quantitativos ou ambos. O que distingue a abordagem aqui discutida das demais possibilidades do estudo de caso é o seu propósito específico: não descrever nem testar teoria, mas gerar teoria — construir, a partir da imersão empírica, proposições que ainda não existiam antes do contato com os dados.

A pesquisa deve começar com uma questão de pesquisa definida, ainda que em termos amplos. A especificação a priori de construtos potencialmente relevantes é útil não como compromisso teórico, mas como andaime provisório para medir com mais precisão o que eventualmente emergir como importante.

A seleção de casos obedece a uma lógica teórica, não estatística. Casos são escolhidos por sua utilidade para replicar ou estender a teoria emergente, para preencher categorias conceituais, ou para representar tipos polares que tornem o fenômeno de interesse transparentemente observável. Não se busca representatividade amostral — busca-se diversidade teoricamente controlada. A definição prévia de uma população delimita a variação extrínseca e circunscreve o domínio de generalização das conclusões. Entre quatro e dez casos costumam funcionar bem: abaixo desse intervalo, a teoria resultante tende a ser empiricamente fraca; acima, o volume de dados se torna ingovernável.

A triangulação de múltiplos métodos de coleta fortalece o fundamento empírico da teoria emergente. Entrevistas, observação e fontes arquivísticas são os mais comuns, mas a combinação de dados qualitativos e quantitativos é especialmente fecunda. Os dados quantitativos previnem que o pesquisador se deixe dominar por impressões vívidas, porém enganosas, enquanto os dados qualitativos explicam os mecanismos subjacentes às relações detectadas. O uso de múltiplos investigadores amplifica o potencial criativo do estudo e reduz o risco de fechamento prematuro, na medida em que perspectivas divergentes entre os membros da equipe impedem a convergência apressada sobre interpretações parciais.

Uma característica marcante da pesquisa geradora de teoria (Theory Building Research) é a sobreposição entre coleta e análise de dados. Isso não é desorganização. É "oportunismo controlado": o pesquisador acompanha a emergência de temas e ajusta instrumentos, acrescenta casos ou fontes de dados conforme o campo revela dimensões inesperadamente relevantes. As notas de campo exercem papel central nesse processo, funcionando como registro contínuo tanto de observações quanto de análises incipientes. A flexibilidade aqui não é licença metodológica, mas sensibilidade ao dado: a capacidade de perceber o que o campo está oferecendo antes que o protocolo original o descarte por irrelevância presumida.

A análise "intracaso" precede qualquer esforço de generalização. Cada caso é tratado como entidade autônoma, e sua compreensão aprofundada — por meio de narrativas descritivas, tabelas, gráficos longitudinais ou transcrições — permite que seus padrões singulares emerjam antes de serem comprimidos em comparações "intercasos". O volume de dados em pesquisa qualitativa é tipicamente esmagador, e a análise "intracaso" é o primeiro mecanismo para não morrer, como Pettigrew advertiu, por "asfixia de dados". Familiaridade íntima com cada caso é condição para a comparação cruzada subsequente ser analiticamente produtiva, e não apenas descritiva.

A busca de padrões entre casos é movida por um diagnóstico cognitivo sóbrio: pesquisadores são processadores de informação notoriamente falhos, propensos a conclusões precipitadas, excessivamente influenciados por dados vívidos, e inclinados a descartar evidências negativas. A resposta metodológica é forçar o olhar por múltiplas lentes divergentes: selecionar categorias e buscar similaridades intragrupo e diferenças intergrupo; comparar pares de casos à procura de semelhanças surpreendentes ou diferenças inesperadas; dividir os dados por fonte e verificar a convergência ou conflito entre elas. O objetivo não é a confirmação das primeiras impressões, mas precisamente a sua "falsificação".

Das análises intra e intercasos emergem temas, conceitos e relações tentativas. O próximo passo é comparar sistematicamente esse quadro emergente com a evidência de cada caso, em iteração contínua entre dado e teoria. Dois processos compõem essa etapa: o refinamento dos construtos — definição precisa e construção de evidência triangulada que os sustente — e a verificação das relações emergentes em cada caso individual, segundo a lógica de replicação: cada caso funciona como um experimento, e a recorrência do padrão em múltiplos casos confere validade interna. Casos que não confirmam as proposições emergentes são especialmente valiosos: frequentemente revelam condições de contorno que aperfeiçoam e ampliam a teoria.

A teoria emergente deve ser confrontada com a literatura existente — tanto com o que a contradiz quanto com o que se assemelha a ela. A literatura conflitante não é ameaça a ser neutralizada: é oportunidade de aprofundamento, pois, a necessidade de reconciliar achados aparentemente incompatíveis força um modo de pensamento mais criativo e potencialmente transformador. A literatura convergente, por sua vez, amplia a validade interna e a generalização ao mostrar que fenômenos semelhantes foram observados em contextos muito distintos. Em pesquisa geradora de teoria, que tipicamente repousa sobre número pequeno de casos, cada suporte externo adicional é um ganho significativo de credibilidade.

O encerramento do processo tem dois critérios complementares: parar de adicionar casos quando a saturação teórica é atingida; isto é, quando casos adicionais oferecem aprendizado marginal decrescente; e parar de iterar entre teoria e dados pelo mesmo motivo. Na prática, considerações pragmáticas como tempo e recursos frequentemente determinam o ponto de encerramento antes da saturação plena. O produto final pode ser conceitos, um quadro conceitual, proposições, ou teoria de médio alcance. Pode, também, ser decepcionante: mera replicação de teoria anterior, ou ausência de padrões discerníveis. Isso é admitido honestamente, o que é em si um traço metodológico relevante.

A autora reconhece sua dívida com Glaser e Strauss, Yin, e Miles e Huberman, mas demarca três diferenças. Primeiro, o foco exclusivo na construção de teoria e não na análise de dados qualitativos, no design de casos, ou na etnografia. Segundo, a inclusão de elementos novos: a especificação a priori de construtos, análise a cruzada de casos e o uso deliberado da literatura. Terceiro e mais revelador, a adoção explícita de uma visão positivista: o processo visa hipóteses testáveis e teoria generalizável, distanciando-se de Strauss e Van Maanen, que priorizam a descrição rica e singular sobre a generalização.

A geração de teoria a partir de estudos de caso apresenta três forças principais. A primeira é a probabilidade de gerar teoria genuinamente nova: a justaposição contínua de evidências contraditórias tende a "descongelar" o pensamento e favorecer reenquadramentos criativos. A segunda é que os construtos emergentes já foram medidos durante o processo, o que os torna operacionalizáveis; ao contrário de construtos importados de outros campos sem lastro empírico direto. A terceira é a validade empírica: a teoria resultante tende a espelhar a realidade de perto, pois foi construída em contato íntimo e contínuo com os dados.

As mesmas características que geram as forças produzem fraquezas simétricas. A riqueza empírica tenta o pesquisador a construir teorias excessivamente complexas, sacrificando a parcimônia que é marca de boa teoria. A orientação indutiva a partir de casos específicos pode resultar em teoria estreita e idiossincrática/específica (útil e válida para o fenômeno estudado, mas incapaz de alcançar o nível de generalidade de teorias como dependência de recursos ou ecologia populacional). Eisenhardt (1989) capitula e, no meu entender, enfraquece o argumento central do texto ao dizer que talvez a "grande" teoria requeira acumulação de múltiplos estudos, e não possa emergir de um único processo de construção a partir de casos. Talvez um vício dado sua cosmovisão admitidamente positivista.

Segundo a autora, a abordagem é especialmente apropriada em duas situações: quando pouco se sabe sobre um fenômeno, tornando a construção incremental de teoria impossível; e quando perspectivas existentes parecem insuficientes — empiricamente frágeis, mutuamente contraditórias, ou conflitantes com o senso comum. Não é método para o estágio maduro de uma linha de pesquisa consolidada, mas para suas bordas — onde o conhecimento ainda está em formação ou onde uma perspectiva fresca pode renovar territórios já muito explorados pela ciência normal.

A avaliação de uma pesquisa construtora de teoria deve girar em torno da qualidade da teoria produzida, não apenas da correção dos procedimentos. Boa teoria é parcimoniosa, testável e logicamente coerente. A isso se somam critérios empíricos: rigor analítico, evidência adequada para cada construto, e eliminação de explicações alternativas. Na ausência de coeficientes de correlação ou distribuições F-Fisher (Análise de Variância), o que garante confiança é a transparência: exibir evidência suficiente para que o leitor possa aplicar seus próprios critérios de julgamento. Finalmente, estudos fortes apresentam insights novos. Ou seja, pesquisa que apenas replica teoria anterior é contribuição modesta demais para justificar o esforço indutivo.

Eisenhardt (1989) conclui que a maioria dos estudos empíricos vai da teoria aos dados, mas que o avanço do conhecimento requer o movimento inverso também. O artigo é um convite a que pesquisadores completem o ciclo, indo dos dados à teoria com o mesmo rigor que a direção oposta demanda. A teoria construída a partir de casos tende a ser nova, testável e empiricamente válida — forças que derivam precisamente do vínculo íntimo com a evidência. Seu nicho de aplicação é o início da pesquisa sobre um tema, ou o momento em que uma perspectiva nova é necessária. Os passos do processo estão sintetizados na Tabela 1 do artigo resenhado e se resume em: (1) Preparar o Terreno, (2) Selecionar os Casos, (3) Produzir os Instrumentos e os Protocolos, (4) Ir a campo, (5) Analisar os Dados, (6) Modelar as Hipóteses, (7) Correlacionar com a Literatura Vigente e (8) Concluir o Estudo por saturação teórica. A autora serve como um guia prático para a defesa de escolhas metodológicas e, de minha parte, eu a utilizei em meu pré-projeto. Um bom contraponto à autora que eu recomendo, contudo, pode ser encontrado em "Better Stories, Not Better Constructs, to Generate Better Theory: A Rejoinder to Eisenhardt" de Dyer e Wilkins (1991) de onde veio a citação que abriu essa resenha.


...


O segundo capítulo de Yin (2005) trata do design de pesquisa em estudos de caso. Essa etapa que, ao contrário do que ocorre em experimentos ou surveys, não conta com um catálogo padronizado. O autor alerta para uma armadilha recorrente: confundir o estudo de caso com um subtipo de quasi-experimento, equívoco que persiste até hoje. Mas um dos próprios autores da tipologia original já se encarregou de corrigir. A ausência de codificação formal não significa ausência de lógica; significa que o pesquisador precisa construir ativamente o encadeamento que conecta dados, questões e conclusões.

Para o autor, o design de pesquisa é definido como o plano lógico (não logístico) que conecta as questões iniciais às conclusões finais. Sua função principal é evitar que a evidência coletada simplesmente não responda ao que foi perguntado. Cinco componentes estruturam um bom design: (1) as questões de pesquisa, (2) as proposições (se houver), (3) a definição do caso, (4) a lógica que conecta dados às proposições e (5) os critérios para interpretar os achados. Os três primeiros orientam o que coletar; os dois últimos antecipam o que fazer com o que foi coletado. O caso deve ser sempre um fenômeno do mundo real com manifestação concreta e não uma abstração, um argumento ou uma hipótese flutuando sem ancoramento empírico.

Segundo Yin (2005), a teoria no estudo de caso não precisa ter a grandiosidade das grandes teorias das ciências sociais. Basta uma proposição suficientemente elaborada (uma "história hipotética" sobre por que certos atos, eventos, estruturas e pensamentos ocorrem). O paradoxo da teoria, lembrado por Diane Vaughan, é que ao mesmo tempo em que ela indica onde olhar, ela pode impedir de ver. Isso não é argumento contra o uso de teoria prévia, mas razão para manejá-la com consciência. A teoria cumpre dois papéis complementares: orienta a coleta e, após o campo, torna-se o veículo principal para a generalização analítica — que é o modo específico pelo qual estudos de caso generalizam seus achados. Ao contrário da generalização estatística, que infere características de uma população a partir de uma amostra, a generalização analítica eleva os achados a um nível conceitual superior ao do caso específico, argumentando sua aplicabilidade a outras situações concretas. Casos não são unidades amostrais e nunca devem ser tratados como tal — nem mesmo sob o eufemismo de "amostra intencional".

Conforme o autor, quatro testes são aplicáveis à qualidade de qualquer design em pesquisa social empírica, e os estudos de caso não escapam deles. A validade de construto exige que os conceitos sejam operacionalizados com precisão e que as medidas escolhidas correspondam a esses conceitos: a crítica mais frequente ao estudo de caso é precisamente a negligência desse requisito, com pesquisadores substituindo operacionalização por julgamento subjetivo. A validade interna é relevante apenas para estudos explicativos: trata-se de assegurar que as inferências causais são legítimas e que explicações rivais foram consideradas e descartadas. A validade externa diz respeito à generalização dos achados. Yin reitera que o caminho correto é a generalização analítica, não estatística. A confiabilidade, por fim, exige que os procedimentos sejam documentados de forma suficiente para que outro pesquisador, seguindo os mesmos passos, chegue aos mesmos resultados: o padrão do auditor.

Nesse sentido, os designs de estudo de caso organizam-se numa matriz 2×2: caso único versus casos múltiplos, cruzado com design holístico versus design mesclado ("embedded"). O design holístico examina o caso como unidade global; o design incorporado reconhece subunidades de análise dentro do caso principal e as estuda sistematicamente. Cada combinação tem suas forças e armadilhas. O design holístico corre o risco de operar em nível de abstração excessivo, evitando a operacionalização necessária. O design incorporado corre o risco oposto: afundar nas subunidades e perder o caso principal de vista, transformando o fenômeno de interesse em mero contexto do que se tornou, inadvertidamente, outra pesquisa. Um risco transversal a qualquer design é o deslizamento silencioso — quando as questões iniciais se deslocam sem que o pesquisador perceba ou reconheça, gerando uma pesquisa que responde a perguntas que não foram feitas.

Yin (2005) diz que o estudo de caso único se justifica em cinco situações: (A) quando o caso é crítico para testar uma teoria com proposições claramente especificadas; (B) quando é incomum ou extremo, desviando de padrões teóricos ou cotidianos de forma que merece documentação; (C) quando é comum, e seu interesse reside precisamente no que seu caráter ordinário pode revelar sobre processos sociais mais amplos; (D) quando é revelador, abrindo ao escrutínio científico um fenômeno previamente inacessível; e (E) quando é longitudinal, permitindo examinar o mesmo caso em dois ou mais momentos distintos para capturar mudanças ao longo do tempo. A vulnerabilidade do caso único é colocar todos os ovos numa cesta só — daí a necessidade de investigar cuidadosamente o candidato antes de qualquer comprometimento definitivo com o design.

Por outro lado, argumenta que estudos de caso múltiplos devem seguir uma lógica de replicação, não de amostragem. Yin ainda insiste nessa distinção com a mesma determinação com que Eisenhardt a sustenta. Cada caso funciona análogo a um experimento (sem sê-lo): pode-se buscar replicação literal (resultados similares em condições similares) ou replicação teórica (resultados contrastantes, previstos de antemão por razões teóricas). O número de casos não é determinado por fórmula estatística, mas pelo grau de certeza desejado e pela força das explicações rivais que se quer refutar. Um achado que sobrevive a múltiplas replicações (literais e teóricas) tem sustentação analítica incomparavelmente superior ao de um caso único. O diagrama de procedimento para estudos de casos múltiplos (Figura 2.5) inclui um importante ciclo de confirmação: se um caso desvia inesperadamente das proposições originais, o design deve ser revisado antes de prosseguir, sob pena de distorção ou silenciamento inconveniente da descoberta. O caminho lógico para estudos de múltiplos casos de Yin (2005) descrito na figura 2.5 é: (1) desenvolver a teoria, (2) selecionar os casos e definir o protocolo de coleta de dados, (3) conduzir todos os estudos de caso, (4) escrever os relatórios de casos individuais, (5) extrair conclusões conjuntas, (6) modificar a teoria, (7) desenvolver implicações de ação de política organizacional e (8) escrever o relatório final de múltiplos casos.

Yin (2005) conclui o capítulo com três conselhos práticos. Quando houver escolha e recursos, designs múltiplos são preferíveis aos únicos, pois, segundo ele, mesmo dois casos oferecem possibilidade de replicação direta e amortecem as críticas de idiossincrasias (especificidades). O design, todavia, não pode ser uma camisa de força: revelações durante a coleta podem e devem levar a adaptações, desde que o pesquisador compreenda com precisão a natureza da alteração. Em outras palavras, mudar a seleção de casos é diferente de alterar proposições teóricas e objetivos. Contudo, ambas as mudanças exigem reconhecimento explícito. Por fim, o crescente interesse em designs de métodos mistos (mixed-methods) merece atenção: estudos de caso podem incorporar surveys ou outros métodos quantitativos como subunidades internas, ou, inversamente, funcionar como componente qualitativo dentro de um estudo maior de base quantitativa — o que amplia as possibilidades de responder a questões mais complexas do que qualquer método isolado permitiria.


...


Eisenhardt (1989) e Yin (2005) rejeitam a lógica amostral e adotam a lógica de replicação. Ambos valorizam triangulação de fontes e reconhecem que o design pode ser adaptado durante a coleta. Os dois autores tratam o estudo de caso como algo na pesquisa qualitativa que cumpre papel análogo experimento na pesquisa quantitativa. De sua argumentação infere-se que entendem que casos não devem ser interpretados como inferiores aos experimentos. Sua maior similaridade é que ambos se encaixam claramente no paradigma pós-positivista (embora Eisenhardt autoclassifique suas ideias no positivismo, me parece mais adequado encaixá-la no pós-positivismo, pois ela busca mais falsificacionismo do que verificacionismo, ou seja, acompanha mais a Popper que a Comte).

Mas há diferenças entre eles: Eisenhardt parte do processo: descreve como a teoria emerge dos dados em movimento iterativo. Yin parte do design: preocupa-se com a arquitetura lógica antes de entrar no campo. Eisenhardt é mais indutiva e aceita maior abertura inicial. Yin exige proposições mais definidas desde o princípio. Ou seja, é possível argumentar que enquanto Eisenhardt apenas admite seu viés positivista, Yin o abraça sem constrangimento. Eisenhardt (1989) fala em saturação teórica como critério de encerramento enquanto Yin (2005) fala em replicação suficiente. São critérios contextualmente próximos, mas com ênfases distintas: um é emergente, o outro é previamente estruturado. Concluo, isso posto, que, embora ambos os autores tenham cosmovisão pós-positivista, mesmo entre eles o assunto da pesquisa qualitativa é um debate em aberto.