Use este identificador para citar ou linkar para este item:
https://repository.ufrpe.br/handle/123456789/4016
Registro completo de metadados
Campo DC | Valor | Idioma |
---|---|---|
dc.contributor.advisor | Sampaio, Pablo Azevedo | - |
dc.contributor.author | Melo, Diogo Felipe Félix de | - |
dc.date.accessioned | 2023-02-24T18:36:29Z | - |
dc.date.available | 2023-02-24T18:36:29Z | - |
dc.date.issued | 2018-08-16 | - |
dc.identifier.citation | MELO, Diogo Felipe Félix de. Aprendizado profundo com capacidade computacional reduzida: uma aplicação à quebra de CAPTCHAs. 2018. 65 f. Trabalho de Conclusão de Curso (Bacharelado em Ciência da Computação) – Departamento de Computação, Universidade Federal Rural de Pernambuco, Recife, 2018. | pt_BR |
dc.identifier.uri | https://repository.ufrpe.br/handle/123456789/4016 | - |
dc.description | Na última década, Redes Neurais Profundas tem se mostrado uma poderosa técnica de aprendizado de máquina. Em geral, essas técnicas demandam alto poder computacional e grandes volumes de dados para obter resultados expressivos, o que pode ser um fator limitante em algumas realidades. Entretanto, o projeto cuidadoso da arquitetura e do treino podem ajudar a reduzir estes requisitos. Neste trabalho apresentamos uma abordagem comparativa para a aplicação de redes neurais profundas à quebra de CAPTCHAs de texto como uma forma de contornar essas limitações. Estudamos modelos capazes de aprender a segmentar e identificar o texto contido em imagens baseando-se apenas em exemplos. A partir da experimentação de diferentes hiper-parâmetros e arquiteturas, fomos capazes de obter um modelo final com acurácia de 96.06% de acerto por token em aproximadamente 3 horas de treino executado em um simples computador pessoal. | pt_BR |
dc.description.abstract | During the last decade, Deep Neural Networks has been shown to be a powerfull machine learn technique. Generally, to obtain relevant results, these techniques require high computacional power and large volumes of data, which can be a limiting factor on some cases. Neverthless, a careful project of trainig and archtecture may help to reduce these requirements. In the this work we present a comparative approach to the application of deep neural networks to text based CAPTCHAs as a way to cope with these limitations. We studied models that are capable of learn to segment and identify the text content of images, only based on examples. By experimentation of different hiper-parameters and architectures, we were capable to obtain a final model with 96.06% of token prediction accuracy in approximately 3 hours of training in a simple personal computer. | pt_BR |
dc.format.extent | 65 f. | pt_BR |
dc.language.iso | por | pt_BR |
dc.rights | openAccess | pt_BR |
dc.rights | Atribuição-NãoComercial-CompartilhaIgual 4.0 Internacional (CC BY-NC-SA 4.0) | pt_BR |
dc.rights | https://creativecommons.org/licenses/by-nc-sa/4.0/deed.pt_BR | pt_BR |
dc.rights | openAccess | pt_BR |
dc.rights | openAccess | pt_BR |
dc.subject | Aprendizado do computador | pt_BR |
dc.subject | Autenticação | pt_BR |
dc.subject | Segurança de computadores | pt_BR |
dc.subject | Redes neurais (Computação) | pt_BR |
dc.title | Aprendizado profundo com capacidade computacional reduzida: uma aplicação à quebra de CAPTCHAs | pt_BR |
dc.type | bachelorThesis | pt_BR |
dc.contributor.authorLattes | http://lattes.cnpq.br/2213650736070295 | pt_BR |
dc.contributor.advisorLattes | http://lattes.cnpq.br/8865836949700771 | pt_BR |
dc.degree.level | Graduacao | pt_BR |
dc.publisher.country | Brasil | pt_BR |
dc.degree.local | Recife | pt_BR |
dc.degree.grantor | Universidade Federal Rural de Pernambuco | pt_BR |
dc.degree.graduation | Bacharelado em Ciência da Computação | pt_BR |
dc.degree.departament | Departamento de Computação | pt_BR |
Aparece nas coleções: | TCC - Bacharelado em Ciência da Computação (Sede) |
Arquivos associados a este item:
Arquivo | Descrição | Tamanho | Formato | |
---|---|---|---|---|
tcc_diogoeelipefelixdemelo.pdf | 1,91 MB | Adobe PDF | Visualizar/Abrir |
Os itens no repositório estão protegidos por copyright, com todos os direitos reservados, salvo quando é indicado o contrário.