FILHO, Euclerio B. OrnellasJUNIOR, Enio G de Santana2023-06-272023-06-272023-06-15https://repositorio.animaeducacao.com.br/handle/ANIMA/33823Resumo—Este artigo dedica-se a expor estudo de análise da capacidade dos Large Language Models (LLMs), como o GPT (Generative Pre-trained Transformer), com ênfase na engenharia de prompt e na autogeração de código. A investigação foca na habilidade do GPT em interpretar e avaliar a adequação de um código a requisitos pré-definidos. Além disso, é realizada uma investigação sobre se o GPT é capaz de ler e traduzir de requisitos para código funcional. Os resultados podem contribuir para a criação de ferramentas de automação de parte do processo de desenvolvimento de software. Além disso, o estudo avalia a influência da autoavaliação do GPT sobre seu desempenho na produção de software. Especificamente, é investigado se a prática de “autopropagação” - o GPT avaliando o próprio código que gerou - pode aprimorar sua performance. Os resultados desta pesquisa são expostos por meio de análise comparativa de desempenho do GPT nos testes propostos, e sugerem que o GPT pode ser uma ferramenta valiosa na geração automática de código, representando um avanço substancial em direção à programação assistida por IA.7ptAtribuição-NãoComercial-SemDerivados 3.0 BrasilLLMengenharia de softwareAutonomia no desenvolvimento de software uma análise da capacidade do GPT em melhorar seu próprio código por utopropagacão.Artigo Científico