Utilização de fine-tuning para melhorar o desempenho de customização de modelos de IA(LLM) utilizando QLoRA

dc.contributor.advisorPETRI, Marcelo
dc.contributor.authorCASARA, Lucas Patrick
dc.contributor.authorHEIDEMANN, André Nicolas
dc.contributor.authorALVES, Luiz Carlos Machado
dc.contributor.authorWOLFF, Victor Alexandre
dc.coverage.spatialJoinville
dc.date.accessioned2024-03-01T19:42:50Z
dc.date.available2024-03-01T19:42:50Z
dc.date.issued2023-12
dc.description.abstractEste artigo apresenta uma avaliação do desempenho de adaptadores QLoRA para modelos de linguagem grandes (LLMs) quantizados. Os adaptadores QLoRA são uma técnica recente que permite melhorar o desempenho de LLMs quantizados sem afetar significativamente sua eficiência. O artigo foi realizado em um conjunto de dados de texto e código e os resultados mostraram que os adaptadores QLoRA podem melhorar significativamente o desempenho de LLMs quantizados em uma variedade de tarefas, incluindo geração de texto, tradução e resposta a perguntas.pt
dc.format.extent25
dc.identifier.urihttps://repositorio.animaeducacao.com.br/handle/ANIMA/41635
dc.language.isopt
dc.rightsAttribution 3.0 Brazilen
dc.rights.urihttp://creativecommons.org/licenses/by/3.0/br/
dc.subjectadaptadores
dc.subjectQLoRA
dc.subjectLLM quantizados
dc.subjectMoE
dc.subjectgeração de texto
dc.subjectexperts
dc.subjectdataset
dc.subjectStableBeluga
dc.subjectGPTQ
dc.titleUtilização de fine-tuning para melhorar o desempenho de customização de modelos de IA(LLM) utilizando QLoRA
dc.typeArtigo Científico
local.modalidade.estudoPresencial
local.rights.policyAcesso aberto

Arquivos

Pacote Original
Agora exibindo 1 - 1 de 1
Nenhuma Miniatura disponível
Nome:
TCC_AndréNicolasHeidemann_LucasPatrickCasara_LuizCarlosMachadoAlves_VictorAlexandreWolff_vsFinalBanca.pdf
Tamanho:
434.5 KB
Formato:
Adobe Portable Document Format
Licença do Pacote
Agora exibindo 1 - 1 de 1
Nenhuma Miniatura disponível
Nome:
license.txt
Tamanho:
956 B
Formato:
Item-specific license agreed upon to submission
Descrição: