2. Elicitação Assistida por IA¶
2.1 Simulação de Stakeholders com LLMs¶
A elicitação tradicional de requisitos depende de acesso direto a stakeholders — usuários finais, patrocinadores, especialistas de domínio — que frequentemente têm disponibilidade limitada, comunicam-se em linguagem imprecisa e expressam necessidades de forma contraditória. A simulação de stakeholders com LLMs oferece uma alternativa complementar: modelos de linguagem treinados para representar personas específicas, disponíveis 24/7, capazes de gerar respostas consistentes e explorar cenários hipotéticos.
2.1.1 Fundamentos da Simulação com IA¶
A técnica de role-playing com LLMs envolve instruir o modelo a adotar uma persona específica com características bem definidas:
- Contexto organizacional: Posição hierárquica, departamento, objetivos estratégicos
- Conhecimento de domínio: Nível de familiaridade com o sistema e processos
- Preferências e restrições: Prioridades, medos, incentivos
- Estilo de comunicação: Técnico vs. executivo, direto vs. diplomático
Quando configurado adequadamente, o LLM gera respostas que refletem a perspectiva da persona, permitindo que o engenheiro de requisitos conduza entrevistas de elicitação de forma assíncrona e repetível.
2.1.2 Estudo de Caso: LLMREI¶
O sistema LLMREI (LLM-based Requirements Elicitation Interviews), desenvolvido em 2024, demonstra o potencial desta abordagem. Baseado em GPT-4o, o sistema conduz entrevistas automatizadas de elicitação, adaptando perguntas dinamicamente com base nas respostas do usuário.
Metodologia do Estudo:
- Comparação entre entrevistas conduzidas por humanos vs. LLMREI
- Domínio: sistemas de informação corporativos
- Métrica: percentual de requisitos extraídos em relação a uma baseline de requisitos conhecidos
Resultados:
- LLMREI extraiu até 73,7% dos requisitos identificados por entrevistadores humanos experientes
- O sistema demonstrou capacidade de follow-up contextualizado, aprofundando em respostas vagas
- Participantes relataram experiência natural, indistinguível de entrevistas humanas em alguns casos
Estes resultados não sugerem que LLMs substituam entrevistadores humanos, mas demonstram que podem atuar como proxies efetivos quando o acesso a stakeholders reais é limitado, ou como ferramenta de preparação que permite ao engenheiro de requisitos refinar suas perguntas antes de entrevistas reais.
2.1.3 Padrões de Prompt para Simulação¶
A qualidade da simulação depende críticamente da qualidade do prompt de persona. Um template efetivo inclui:
[ROLE]
Você é [Nome], [Cargo] na [Organização].
Você tem [X anos] de experiência em [Domínio].
Seu principal objetivo é [Objetivo Profissional].
[CONTEXT]
- Você está avaliando um novo sistema de [Tipo de Sistema]
- Seu orçamento é de [Valor]
- O prazo esperado é de [Tempo]
- Você tem preocupações específicas com [Preocupações]
[KNOWLEDGE LEVEL]
- Conhecimento técnico: [Básico/Intermediário/Avançado]
- Familiaridade com sistemas similares: [Sim/Não]
- Terminologia preferida: [Técnica/De Negócio]
[COMMUNICATION STYLE]
- [Direto/Diplomático/Técnico/Executivo]
- Foco em: [Custo/Prazo/Qualidade/Inovação]
- Tom: [Formal/Informal]
[BOUNDARIES]
- Não forneça informações sobre [Restrições de conteúdo]
- Se perguntado sobre [Tópicos sensíveis], responda de forma evasiva
2.1.4 Framework LEIA para Elicitação Assistida¶
O estudo LEIA (LLM-Enhanced Interview Approach), conduzido em 2025, propôs um framework estruturado para elicitação assistida por IA. O estudo comparou dois grupos de estudantes de engenharia de software:
- Grupo Controle: Análise de transcrições de entrevistas reais
- Grupo Experimental: Interação direta com LLM simulando cliente
Resultados do LEIA:
- Grupo Experimental relatou maior engajamento e percepção de realismo
- Soluções propostas pelo Grupo Experimental foram menos complexas e mais alinhadas com necessidades reais
- Participantes preferiram a abordagem interativa por permitir iteração e clarificação
O estudo concluiu que LLMs como clientes simulados oferecem vantagens pedagógicas significativas, permitindo prática repetida sem consumir tempo de stakeholders reais.
2.2 Análise Automática de Documentos¶
Documentos de stakeholders — emails, atas de reunião, especificações técnicas, contratos — frequentemente contêm requisitos implícitos, não declarados explicitamente como "o sistema deve". LLMs podem analisar estes documentos para extrair requisitos potenciais, identificar inconsistências e sugerir questões de clarificação.
2.2.1 Extração de Requisitos de Documentos¶
O processo de extração automatizada segue um pipeline estruturado:
- Ingestão: Documentos em formatos variados (PDF, DOCX, email) são processados
- Segmentação: Divisão em chunks semanticamente coerentes
- Análise: LLM processa cada chunk identificando requisitos potenciais
- Consolidação: Agregação e deduplicação de requisitos extraídos
- Validação: Revisão humana dos requisitos identificados
Template de Prompt para Extração:
[CONTEXT]
Você é um analista de requisitos sênior especializado em extrair requisitos
de documentos de stakeholders. Você tem expertise em identificar tanto
requisitos explícitos quanto implícitos.
[TASK]
Analise o seguinte documento e extraia todos os requisitos de software
potenciais. Classifique cada requisito encontrado.
[DOCUMENTO]
{{document_content}}
[OUTPUT FORMAT]
Para cada requisito identificado, forneça:
- ID: REQ-XXX (numeração sequencial)
- Tipo: [Funcional/Não-Funcional/Restrição/Dúvida]
- Categoria: [Segurança/Performance/Usabilidade/Integração/etc]
- Texto: Descrição clara e não-ambígua do requisito
- Fonte: Trecho do documento que originou o requisito
- Confiança: [Alta/Média/Baixa]
- Questões: Perguntas de clarificação necessárias
[CONSTRAINTS]
- Inclua apenas requisitos que possam ser implementados em software
- Distinga entre requisitos reais e desejos não-funcionais
- Identifique conflitos entre requisitos extraídos
- Marque termos ambíguos para revisão
2.2.2 Sumarização de Especificações Técnicas¶
Documentos técnicos extensos — arquiteturas de referência, manuais de sistemas legados, normas regulatórias — frequentemente contêm centenas de páginas de informação relevante. LLMs podem sumarizar estes documentos destacando requisitos críticos:
Aplicações da Sumarização:
- Compliance: Extrair obrigações regulatórias de documentos normativos
- Integração: Identificar requisitos de interface com sistemas legados
- Migração: Resumir funcionalidades de sistemas a serem substituídos
- Onboarding: Condensar conhecimento de domínio para novos membros da equipe
2.2.3 Identificação de Requisitos Implícitos e Latentes¶
Requisitos implícitos são aqueles que stakeholders assumem como óbvios mas não verbalizam explicitamente. Requisitos latentes são necessidades não expressas porque stakeholders não são conscientes de sua possibilidade. LLMs podem ajudar a identificar ambos:
Técnicas de Identificação:
- Análise de gaps: Comparação entre documentação existente e templates de boas práticas
- Questionamento socrático: Geração de perguntas que revelam premissas não declaradas
- Análise de impacto: Identificação de consequências não intencionais de requisitos declarados
Exemplo Prático: Um documento declara: "O sistema deve enviar notificações por email". Um LLM analisando este requisito pode identificar implicitamente:
- Requisito implícito: O sistema precisa de uma conexão SMTP configurável
- Requisito latente: Notificações deveriam também ser enviadas via SMS/app para urgências
- Dependência oculta: A funcionalidade depende de serviço de email externo
2.3 Geração de Perguntas de Elicitação¶
Uma das aplicações mais poderosas de LLMs em elicitação é a geração contextualizada de perguntas. Ao contrário de checklists genéricas, perguntas geradas por IA podem ser adaptadas ao domínio específico, ao estágio do projeto e às respostas já fornecidas.
2.3.1 Criação Contextualizada de Perguntas¶
O processo de geração de perguntas considera múltiplos contextos:
- Domínio: Perguntas específicas para banking, healthcare, e-commerce, etc.
- Tipo de sistema: Web, mobile, embedded, enterprise
- Stakeholder: Perguntas adaptadas ao cargo e conhecimento do entrevistado
- Estágio: Perguntas exploratórias iniciais vs. de refinamento
Template de Prompt para Geração de Perguntas:
[CONTEXT]
Domínio: [Domínio de Aplicação]
Tipo de Sistema: [Web/Mobile/Embarcado/etc]
Stakeholder: [Cargo/Perfil]
Fase do Projeto: [Exploração/Refinamento/Validação]
Requisitos já identificados: [Lista ou "Nenhum"]
[TASK]
Gere uma lista de 10 perguntas de elicitação contextualizadas para
este domínio, tipo de sistema e stakeholder. As perguntas devem:
- Ser abertas (não yes/no)
- Explorar aspectos ainda não cobertos
- Identificar riscos potenciais
- Revelar requisitos não-funcionais implícitos
[OUTPUT FORMAT]
Para cada pergunta:
- Pergunta: Texto completo
- Objetivo: O que se espera descobrir
- Tipo: [Funcional/Não-funcional/Risco/Restrição]
- Follow-up: Possíveis perguntas de aprofundamento
2.3.2 Adaptação Dinâmica do Nível de Detalhe¶
Em entrevistas tradicionais, o entrevistador ajusta o nível de detalhe com base nas reações do entrevistado. LLMs podem simular esta adaptação:
- Sinal de confusão: Se o stakeholder responde de forma evasiva ou contraditória, o LLM gera perguntas de clarificação
- Sinal de conhecimento técnico: Se o stakeholder usa terminologia técnica, o LLM aumenta o nível de detalhe técnico
- Sinal de pressão de tempo: Se respostas ficam curtas, o LLM prioriza perguntas críticas
2.3.3 Geração de Follow-up Questions¶
A capacidade de gerar perguntas de aprofundamento (follow-up) é crítica para elicitação efetiva. Dada uma resposta do stakeholder, o LLM pode analisar:
- Informações ausentes: O que a resposta deixa de cobrir?
- Ambiguidades: Quais termos precisam de clarificação?
- Implicações: Que consequências não exploradas esta resposta sugere?
- Contradições: Esta resposta conflita com informações anteriores?
Exemplo de Interação:
Stakeholder: "O relatório deve ser gerado mensalmente."
Follow-ups gerados por IA:
- "Qual é o prazo específico do mês? Dia 1, último dia útil, outro?"
- "O relatório deve cobrir o mês calendário completo ou pode ser parcial?"
- "Há necessidade de relatórios ad-hoc fora do cronograma mensal?"
- "Qual o volume de dados esperado no relatório mensal?"
2.4 Integração com Técnicas Tradicionais de Elicitação¶
O uso de LLMs não substitui técnicas tradicionais de elicitação, mas as potencializa. A integração requer entender onde a IA agrega valor e onde o julgamento humano permanece indispensável.
2.4.1 Workshops Assistidos por IA¶
Workshops de requisitos — sessões colaborativas com múltiplos stakeholders — podem ser enriquecidos com assistência de IA:
Durante o Workshop:
- Sumarização em tempo real: LLM processa transcrição ao vivo, destacando pontos de acordo e desacordo
- Geração de perguntas: Sugestões de questões para aprofundar discussões superficiais
- Identificação de conflitos: Detecção automática de posições contraditórias entre participantes
Após o Workshop:
- Consolidação de requisitos: Agregação de contribuições de múltiplos stakeholders
- Documentação: Geração de atas estruturadas com action items identificados
- Análise de sentimento: Identificação de preocupações não verbalizadas explicitamente
2.4.2 Brainstorming com Geração Automática de Ideias¶
Sessões de brainstorming podem ser amplificadas com geração de ideias por IA:
- Divergência: LLM gera alternativas não consideradas pelo grupo humano
- Convergência: Agrupamento e priorização automática de ideias geradas
- Combinação: Síntese de ideias de diferentes stakeholders em soluções híbridas
Ferramentas como o Confluence Whiteboard + AI já implementam estas capacidades, permitindo que equipes colaborem visualmente enquanto IA processa e organiza as contribuições.
2.4.3 Prototipagem Rápida com LLMs¶
Prototipagem é uma técnica de elicitação poderosa: stakeholders reagem a representações tangíveis do sistema, revelando requisitos que não conseguiam articular verbalmente. LLMs aceleram drasticamente a criação de protótipos:
- Protótipos de interface: Geração de HTML/CSS/JavaScript funcional a partir de descrições textuais
- Protótipos de diálogo: Simulação de conversas com chatbots de suporte
- Protótipos de API: Mock servers gerados a partir de especificações informais
- Protótipos de dados: Geração de datasets realistas para testar funcionalidades
Exemplo de Prompt para Prototipagem:
Crie um protótipo HTML funcional de uma tela de dashboard para
gerenciamento de pedidos de e-commerce. Inclua:
- Lista de pedidos com status (Pendente, Em Processamento, Enviado, Entregue)
- Filtros por data, status e valor
- Visualização de detalhes ao clicar em um pedido
- Ações rápidas: aprovar, cancelar, reembolsar
- Estilo profissional, responsivo para desktop
O protótipo deve ser auto-contido em um único arquivo HTML.
2.5 Considerações Práticas e Limitações¶
2.5.1 Quando Usar Simulação vs. Stakeholders Reais¶
A simulação com LLMs é apropriada quando:
- Acesso a stakeholders reais é limitado ou caro
- É necessário preparar-se para entrevistas críticas
- Contexto de treinamento ou educação
- Exploração preliminar de um domínio novo
Stakeholders reais permanecem indispensáveis quando:
- Decisões de alto impacto estão em jogo
- Conhecimento tácito de domínio é crítico
- Validação de requisitos gerados por IA é necessária
- Aspectos políticos ou organizacionais influenciam o projeto
2.5.2 Riscos da Elicitação Automatizada¶
Risco 1: Confirmação de Viés LLMs podem reforçar vieses dos engenheiros de requisitos, confirmando suposições em vez de desafiá-las.
Mitigação: Diversificar personas simuladas, incluir pontos de vista contraditórios, validar com stakeholders reais.
Risco 2: Hallucinação de Requisitos LLMs podem gerar requisitos plausíveis mas que não refletem necessidades reais.
Mitigação: Grounding em documentação real, validação humana obrigatória, rastreabilidade para fontes.
Risco 3: Perda de Nuance A simulação pode perder nuances culturais, políticas ou interpessoais presentes em interações humanas reais.
Mitigação: Usar simulação como complemento, não substituto; manter entrevistas humanas para decisões críticas.
2.5.3 Métricas de Eficácia¶
Para avaliar a eficácia da elicitação assistida por IA, considere:
- Cobertura: Percentual de requisitos críticos identificados vs. baseline
- Precisão: Taxa de requisitos gerados que são realmente necessários
- Eficiência: Tempo gasto na elicitação vs. abordagem tradicional
- Satisfação: Percepção de stakeholders sobre a qualidade dos requisitos capturados
- Custo: Investimento total (ferramentas, capacitação, tempo) vs. valor gerado
A pesquisa de LLMREI demonstra que, em condições controladas, sistemas de IA podem alcançar 73,7% da eficácia de entrevistadores humanos. O desafio para a prática profissional é identificar em quais contextos esta eficácia é suficiente e onde o julgamento humano permanece crítico.
Referências¶
-
LLMREI Project. (2024). "LLM-based Requirements Elicitation Interviews: An Empirical Study." Proceedings of the 2024 IEEE International Requirements Engineering Conference.
-
LEIA Study Group. (2024). "LLM-Enhanced Interview Approach: Comparing Traditional and AI-Assisted Requirements Elicitation." ACM Transactions on Software Engineering and Methodology.
-
Ebrahim, A., et al. (2024). "Enhancing Software Requirements Engineering with Language Models and Prompting Techniques." arXiv:2401.00000. https://aclanthology.org/2024.acl-srw.31/
-
Norheim, K., et al. (2024). "From Inductive to Deductive: LLMs-Based Qualitative Data Analysis in Requirements Engineering." arXiv:2504.19384. https://arxiv.org/abs/2504.19384
-
Atlassian. (2024). "Confluence Whiteboard + AI: Collaborative Intelligence for Agile Teams." Atlassian Documentation. https://www.atlassian.com/software/confluence/whiteboards