Repositório RCAAP

Explorando o Potencial de Algoritmos de Aprendizado com Reforço em Robôs Móveis

O problema de aprendizado com robôs é essencialmente fazer com que o robô execute tarefas sem a necessidade de programá-los explicitamente. Nos últimos anos, Aprendizado de Máquina, um subcampo de Inteligência Artificial, tem procurado substituir programação explicita pelo processo de ensinar uma tarefa. O Aprendizado com Reforço é um dos paradigmas do aprendizado não-supervisionado, podendo ser visto como uma forma de ensinar o robô a realizar uma tarefa sem especificar previamente como realizá-la. O problema de aprendizado com reforço pode ser modelado como: um conjunto de estados do ambiente, um conjunto de ações e um conjunto de recompensas Neste trabalho explora-se o potencial dos principais algoritmos de aprendizado com reforço: Q-learning, R-learning e H-learning. Desta forma, foram comparados métodos \"independentes de modelo\" e \"baseados em modelo\", verificando a eficiência de cada algoritmo para a tarefa de navegação em um ambiente dinâmico contendo obstáculos. Além disso, este trabalho propõe um método de navegação baseado em sensores, chamado R-learning, o qual incorpora conceitos de lógica fuzzy ao algoritmo R-learning para a navegação de robôs móveis em ambientes desconhecidos. Foi realizada uma aplicação que consiste em ensinar o robô a encontrar pequenos objetos. Para isto, um conjunto de estados foi mapeado através de conceitos de força de repulsão e para navegação foi utilizado o algoritmo R-learning. O robô mostrou ter um comportamento satisfatório ao realizar esta tarefa.

A construção de recursos lingüístico-computacionais para o português do Brasil: o projeto Unitex-PB

A escassez de recursos linguístico-computacionais é um dos maiores entraves para o avanço das pesquisas, e consequente desenvolvimento de sistemas, na área de Processamento de Língua Natural (PLN) no Brasil. Este trabalho documenta a construção de uma série recursos lingúístico-computacionais para português brasileiro seguindo os formalismos utilizados pela ferramenta de processamento de corpus Unitex. Foram construídos léxicos computacionais, regras de resolução de ambiguidades e bibliotecas para acesso a léxicos compactados, assim como algumas ferramentas para validar esses recursos. Os desafios encontrados durante todo o processo são discutidos nessa dissertação.

Ano

2004

Creators

Marcelo Caetano Martins Muniz

Solução numérica do modelo de Stokes-Brinkman para escoamentos em meios porosos

Em escoamentos em meios porosos, especialmente os provenientes de problemas de extração de petróleo, o modelo de Darcy é amplamente utilizado quando a escala de referência do escoamento é muito maior que a escala da estrutura de poros do meio poroso. Na presença de canais livres ou em domínio com alta porosidade (como em fraturas no material poroso, por exemplo), o modelo de Stokes-Brinkman é mais adequado, sendo um intermediário entre o modelo de Darcy puro e a solução direta na escala do poro através das equações de Stokes. Este trabalho propõe a simulação numérica do modelo de Stokes-Brinkman para escoamentos em meios porosos, com o objetivo de investigar os limites dessa modelagem, os desafios numéricos na sua discretização e apresentar uma nova abordagem para escoamento bifásico (água e óleo) em meios porosos heterogêneos. O modelo bifásico proposto consiste em equações de pressão-velocidade (assumindo o fluxo de Stokes-Brinkman) acopladas a uma equação hiperbólica não linear que governa o balanço de massa (equação de saturação).

Ano

2020

Creators

Anna Caroline Felix Santos de Jesus

Correção de normais para suavização de nuvens de pontos

Nos anos recentes, suavização de superfícies é um assunto de intensa pesquisa em processamento geométrico. Muitas das abordagens para suavização de malhas usam um esquema de duas etapas: filtragem de normais seguido de um passo de atualização de vértices para corresponder com as normais filtradas. Neste trabalho, propomos uma adaptação de tais esquemas de duas etapas para superfícies representadas por nuvens de pontos. Para isso, exploramos esquemas de pesos para filtrar as normais. Além disso, investigamos três métodos para estimar normais, analisando o impacto de cada método para estimar normais em todo o processo de suavização da superfície. Para uma análise quantitativa, além da comparação visual convencional, avaliamos a eficácia de diferentes opções de implementação usando duas medidas, comparando nossos resultados com métodos de suavização de nuvens de pontos encontrados a literatura

Ano

2013

Creators

Paola Tatiana Llerena Valdivia

Solução numérica de equações diferenciais parciais implícitas de primeira ordem

As equações diferencias parciais tem origem na modelagem do problemas nas ciências e engenharia, tais como a equação do calor, equação da onda, equação de Poisson, entre outras. Para muitas destas equações não é tão simples obter uma técnica analítica para achar sua solução e nestes casos é necessário uso de soluções aproximadas obtidas pelo computador. Existem técnicas tradicionais para solução numérica de uma grande classe de equações diferenciais, mas quando esta equação está na forma implícita, muitas destas técnicas já não podem ser aplicadas. Frequentemente as equações diferenciais parciais de segunda ordem tem maior estudo que as equações de primeira ordem sendo uma das razões que os modelos envolvem derivadas de segunda ordem. No caso das equações diferenciais parciais de primeira ordem implícitas a não linearidade em alguns casos não permite determinar uma solução de forma simples. O trabalho desenvolvido faz uma revisão do método das características para estabelecer as condições necessárias e suficientes, que permitam encontrar uma solução, ao mesmo tempo evidencia a complexidade de determinar uma solução clássica. Dentro das aplicações existentes relacionadas com as Equações Diferenciais Parciais Implícitas de Primeira Ordem, podemos mencionar a Equação cinemática e a Equação de Hamilton-Jacobi que podem-se associar com o movimento de partículas. Para a solução de uma Equação Diferencial Implícita de Primeira Ordem o método das características tem uma estrutura de solução que permite resolver a equação de forma analítica e numérica, desde que se verifique o Teorema de Cauchy. O objetivo deste trabalho de mestrado é obter um método numérico para a solução de equações diferenciais parciais de primeira ordem implícitas. Nós propomos um método numérico do tipo previsor-corretor que resolve uma EDP de primeira ordem implícita, utilizando o sistema característico em conjunto com as condições de banda, para reduzir o erro global nas iterações.

Ano

2014

Creators

Sergio Moises Aquise Escobedo

Marcação de regiões de interesse em 3d sobre imagens radiológicas utilizando a web

Este trabalho faz parte de um projeto maior, o electronic Physician Annotation Device (ePAD). O ePAD permite a criação de uma base de conhecimento médico usando anotações semânticas sobre lesões em imagens radiológicas, usando uma plataforma Web. Essas anotações servirão para identificar, acompanhar e reason sobre lesões tumorais em pesquisas médicas (especialmente sobre câncer). A informação adquirida e persistida pelo sistema permite avaliação automática por computadores; recuperação de imagens hospitalares e outros serviços relacionados a exames médicos. O ePAD é um desenvolvimento conjunto de grupos de pesquisas do ICMC-USP e do Department of Radiology da Stanford University. O principal trabalho, apresentado neste texto, é um novo conjunto de funcionalidades na Web para adicionar a marcação de lesões em imagens radiológicas em três dimensões ao ePAD. Elas permitirão a obtenção de dados mais precisos acerca de medidas tridimensionais de lesões como volume, posição e cálculo de maior diâmetro. O objetivo é facilitar o trabalho dos profissionais de radiologia na análise de diagnósticos e acompanhamento de lesões produzindo um acompanhamento mais acurado da evolução de doenças como o câncer. Anotações podem ser conectadas a lesões e conter informações semânticas, usando termos biomédicos da ontologia RadLex. Essas novas funcionalidades são baseadas em HTML5, com o auxílio de WebGL para visualização e manipulação de objetos 3D. As maiores contribuições deste trabalho são o software para visualização de séries de imagens radiológicas em 3D usando planos ortogonais, os protótipos de vídeo mostrando as três possíveis interfaces para marcação de lesões em 3D, a pesquisa com radiologistas (usando os protótipos de vídeo) para determinar que o cursor esférico era a melhor interface para marcar lesões em 3D e o protótipo dessa interface no ePAD. Este trabalho contou com a ajuda de usuários do Department. of Radiology da Stanford University e do Hospital das Clínicas da Universidade de São Paulo em Ribeirão Preto.

Ano

2014

Creators

Cleber Castro Hage

Uma abordagem visual para análise comparativa de redes biomoleculares com apoio de diagramas de Venn

Sistemas biológicos podem ser representados por redes que armazenam não apenas informações de conectividade, mas também informações de características de seus nós. No contexto biomolecular, esses nós podem representar proteínas, metabólitos, entre outros tipos de moléculas. Cada molécula possui características anotadas e armazenadas em bases de dados como o Gene Ontology. A comparação visual dessas redes depende de ferramentas que permitam o usuário identificar diferenças e semelhanças entre as anotações feitas sobre as moléculas (atributos) e também sobre as interações conhecidas (conexões). Neste trabalho de mestrado, buscou-se desenvolver técnicas que facilitem a comparação desses atributos sobre as moléculas, tentando manter no processo a visualização das redes em que essas moléculas estão inseridas. Como resultado, obteve-se a ferramenta VisPipeline-MultiNetwork, que permite comparar até seis redes, utilizando operações de conjuntos sobre as redes e sobre seus atributos. Dessa forma, diferentemente da maioria das ferramentas conhecidas para a visualização de redes biológicas, o VisPipeline-MultiNetwork permite a criação de redes cujos atributos são derivados das redes originais por meio de operações de união, intersecção e valores exclusivos. A comparação visual das redes é feita pela visualização do resultado dessas operações de conjuntos sobre as redes, por meio de um método de comparação lado-a-lado. Já a comparação dos atributos armazenados nos nós das redes é feita por meio de diagramas de Venn. Para auxiliar este tipo de comparação, a técnica InteractiVenn foi desenvolvida, em que o usuário pode interagir com um diagrama de Venn efetuando operações de união entre conjuntos. Essas operações de união aplicadas sobre os conjuntos são também aplicadas sobre as respectivas formas no diagrama. Esta característica da técnica a diferencia das outras ferramentas de criação de diagramas de Venn. Integrando essas funcionalidades, o usuário é capaz de comparar redes sob diversas perspectivas. Para exemplificar a utilização do VisPipeline-MultiNetwork, dois casos no contexto biomolecular foram estudados. Adicionalmente, uma ferramenta web para a comparação de listas de cadeias de caracteres por meio de diagramas de Venn foi desenvolvida. Ela também implementa a técnica InteractiVenn e foi denominada InteractiVenn website.

Medidas em grafos para apoiar a avaliação da qualidade de projeções multidimensionais

Projeções Multidimensionais são úteis para gerar visualizações adequadas para apoiar a análise exploratória de uma grande variedade de dados complexos e de alta dimensionalidade. Tarefas de análise visual de dados têm se beneficiado de projeções para explorar dados textuais, de imagens, de sensores, entre outros. Porém, diferentes técnicas de projeção e diferentes parametrizações de uma mesma técnica produzem resultados distintos para um mesmo conjunto de dados, pois as técnicas adotam estratégias distintas para representar os dados originais em um espaço cuja dimensionalidade permite sua visualização. Atualmente, ainda há poucos recursos para avaliar a qualidade dessas projeções e, em geral, as soluções existentes avaliam propriedades específicas, demandando grande esforço do analista para uma avaliação mais abrangente. Neste trabalho, introduzimos um arcabouço para computar medidas de avaliação de projeções com enfoque em análise de vizinhanças e de agrupamentos. Para elaborar este arcabouço, foi realizado um estudo de percepção para entender melhor como os usuários observam as projeções e foi conduzida uma investigação de representações dos dados capazes de favorecer a identificação de vizinhanças e de agrupamentos. Os padrões identificados no estudo de percepção auxiliaram a validar a representação dos dados, em que foi proposto um modelo de grafo, chamado de Extended Minimum Spanning Tree (EMST), capaz de capturar características condizentes com as observações dos participantes no estudo. O grafo EMST também foi validado por meio de dois estudos comparativos de identificação de vizinhanças e de agrupamentos. Com base neste arcabouço foram propostas cinco medidas de qualidade de projeções multidimensionais, duas delas para avaliar características relacionadas à separação visual das classes, e outras três para avaliar a preservação de propriedades do espaço original, especificamente a separação das classes, as vizinhanças e os agrupamentos. As medidas são ilustradas por meio de sua aplicação a conjuntos de dados artificiais, favorecendo a sua interpretação, bem como a conjuntos de dados reais, evidenciando a sua potencial utilidade em cenários reais. Também é apresentada uma comparação das novas medidas de preservação de vizinhanças com medidas similares descritas na literatura, permitindo identificar diferenças e semelhanças entre elas.

Ano

2014

Creators

Robson Carlos da Motta

Obtenção Automatizada da Expressão do Erro de Truncamento presente na Discretização de Equações Diferenciais Parciais

Esta dissertação apresenta o programa computacional EQMOD, o qual determina a expressão do erro de truncamento presente na discretização de equações diferenciais parciais. Esta expressão é obtida a partir da equação modificada associada à discretização, cujo processo de obtenção envolve extensas manipulações algébricas, dificultando seu cálculo manual. Porém, ele se presta à automatização em um computador munido de uma linguagem de programação simbólica. Para isso, escolheu-se a linguagem de programação do pacote Mathematica. São mostrados vários exemplos que demonstram a funcionalidade e aplicabilidade do sistema desenvolvido.

Ano

1998

Creators

Vanessa Rolnik Artioli

Sonificação para Apoio a Tarefas de Visualização\".

A Visualização Científica (VisC) é uma área da computação gráfica que ajuda cientistas e outros profissionais a capturar o significado dos seus dados. Essa área tem como objetivo a geração de imagens a partir de um conjunto de dados (geralmente obtidos a partir de dispositivos de detecção ou simulações numéricas), as quais são interpretados por usuários que desejam ganhar entendimento do fenômeno que gerou os dados. Algumas vezes esses conjuntos de dados formam imagens complexas, dificultando o seu entendimento, ou possuem muita informação, tornando difícil a sua apresentação no ambiente bidimensional da tela do computador. Nesses casos o som é uma boa alternativa de representação em apoio às técnicas visuais. Sonificação é a área da computação que tratqa do mapeamento sonoro de conjuntos de dados com a intenção de exibir informações. Esta dissertação mostra um estudo sobre o uso de som para o desenvolvimento de um sistema de sonificação para visualização. Esse sistema compreende a implementação de funções de som para visualização volumétrica baseada em superfícies desenvolvidas anteriormente em SSound , no ambiente orientado a objetos de uma biblioteca de visualização de baixo custo e ampla utilização ( o VTK Visualization Toolkit). Os resultados desta dissertação identificam a utilidade do som integrado com a visualização para representar e reforçar dados, além de uma série de recursos para suportar a interpretação de informações complexas.

Ano

1998

Creators

Veridiana Christie Lucas Salvador

Projeto e Implementação de um Sistema de Auxílio a Preparação de Material Didático para uso na World-Wide Web

A presença de computadores e outros recursos tecnológicos no ambiente educacional sempre causou polêmica. Quando as máquinas de calcular entraram nas salas de aula, temia-se que as crianças e, em pouco tempo, os adultos perdessem a capacidade de realizar cálculos às custas de seu próprio raciocínio (preocupação antecipada em um conto de ficção de Isaac Asimov, A Sensação de Poder, publicado pela primeira vez em 1957). O cenário atual nos mostra não o receio, mas a necessidade de oferecer recursos tecnológicos aos estudantes, o mais cedo possível. Neste contexto, focalizamos o sistema Interland (Moreira, Nunes & Pimentel, 1995), que propõe um ambiente de auxílio ao aprendizado no sistema World-Wide Web, com facilidades para exploração de recursos interativos e de multimídia. O objeto deste trabalho é a interface do professor no sistema Interland: o Teaching Assistant ou T.A. O sistema T.A. implementa um conjunto de recursos de autoria com modelos e ferramentas para a produção de documentos relacionados a disciplinas. Os modelos de páginas contribuem para uma menor necessidade de decisões de projeto por parte do professor e menos problemas de autoria, embutindo conceitos importantes na produção de documentos para a World-Wide Web. Essa preocupação também tem em vista evitar problemas para os usuários das páginas em hipertexto (os alunos). Um dos pontos principais do sistema T.A. é permitir a introdução de recursos multimídia (no estágio atual, trechos de vídeo selecionados pelo professor) disponíveis em uma base de dados, eliminando a necessidade de se aprender a manipular outros programas específicos para esse fim. Os protótipos já desenvolvidos oferecem modelos de documentos, e permitem a introdução de interações simples e trechos de vídeo em páginas, de maneira transparente para o usuário.

Ano

1998

Creators

Maria Alice Soares de Castro

Tratamento da Distribuição em Modelos Conceituais de Banco de Dados

indiscutível o grande interesse, tanto dos pesquisadores quanto do mercado de informática, na tecnologia de sistemas de Banco de Dados Distribuído. Entretanto, a distribuição introduz um novo nível de complexidade aos projetos de banco de dados, sua utilização implica em decisões quanto a alocação de dados e programas ao longo da rede de computadores. A maioria dos trabalhos na área busca o desenvolvimento de métodos iterativos para solução otimizada de estratégias de consulta eiou alocação de dados. São poucas as abordagens semânticas do problema. Este trabalho propõe um método prático para alocação de dados, sem considerar qualquer modelo quantitativo; visa-se o enfoque qualitativo da distribuição de dados. Reduz-se a generalização do problema em prol de uma análise pragmática da questão. A base do trabalho são os sistemas de informação da área operacional de uma Empresa de Telecomunicação. O objetivo da proposta é definir o esquema de fragmentação de um banco de dados centralizado através da análise e classificação dos subsistemas de manutenção dos dados, para depois determinar o Esquema de Alocação usando o Modelo Relacional. Por fim, o diaarama conceituai, concebido através cio Modelo Entidade-Relacionamento Estendido, é revisto para incorporar a representação da distribuição aqui desenvolvida.

Ano

1998

Creators

Marilia Guimarães Pinheiro

O Sistema Tutor de um Ambiente Inteligente para Treinamento e Ensino

Este trabalho propõe um ambiente denominado SIATE (Sistema Inteligente de Apoio ao Treinamento e Ensino), que integra características de ambientes de Prática/Treinamento, Hipennídia, Sistemas Tutores e Sistemas Híbridos de Conhecimento, é voltado para o ensino e tem como característica marcante a liberdade, por parte do estudante, de explorar um domínio qualquer, podendo recorrer, quando necessário, ao auxílio de um Sistema Tutor e de um Sistema Híbrido de Conhecimento com conhecimento especialista nesse domínio. São enfatizados aqui o projeto e o desenvolvimento de um Sistema Tutor que oferece apoio pedagógico ao ambiente, bem como o desenvolvimento dos recursos hipermídia desse ambiente.

Ano

1998

Creators

Mirla Eliane Pereira Freire

Desenvolvimento de um Modelador de Moldes Tridimensional para um Simulador de Escoamento de Fluidos\".

Este trabalho envolveu estudos nas áreas de Modelagem Geométrica, Técnicas de Modelagem e Interação Usuário-Computador e descreve a implementação de um Modelador de Moldes Tridimensional. Esse sistema tem o objetivo de prover o Simulador de Escoamento de Fluidos FREEFLOW 3D de uma ferramenta na qual o usuário possa construir o molde 3D onde um fluido será injetado, de uma forma fácil e intuitiva. O Modelador utiliza como técnicas de modelagem Varreduras e Curvas e Superfícies Livres NURBS. Para a interação com o usuário utiliza técnicas bidimensionais que auxiliam à defmição das faces geradoras necessárias aos algoritmos de modelagem. Já os moldes tridimensionais criados são representados internamente pela sua fronteira (Boundary Representation), usando uma estrutura do tipo semi-aresta (halfedge).

Ano

1998

Creators

Rogerio Dei Santi

Uso de Redes Neurais para Correção Gramatical do Português: Um Estudo de Caso

A construção de ferramentas para a correção automática de textos tem ganhado destaque, seguindo a evolução e eficiência dos processadores de textos ao qual elas são incorporadas. E, junto às técnicas tradicionais simbolistas de implementação de tais ferramentas, através do uso de regras de produção, surgem aplicações com técnicas até então não usuais na. área de lingüística computacional, como o uso de Redes Neurais Artificiais. O trabalho proposto tem por objetivo fazer um estudo comparativo do uso das técnicas conexionista e simbolista na revisão automática de erros gramaticais da língua portuguesa. Usando como estudo de caso as regras gramaticais da crase, tomamos como exemplo de modelo tradicional de implementação o revisor gramatical ReGra, e de outro lado, implementamos dois modelos de redes neurais (um modelo backpropagation e um modelo Elman), para detectar erros com relação ao uso da crase, tanto em casos de presença incorreta, quanto de ausência. A meta deste estudo não é apontar qual método é o mais eficiente em termos gerais, mesmo porque acreditamos que isto não seja possível. Queremos, sim, observar o desempenho de ambos os métodos quanto ao problema determinado, visando assim uma maior integração entre eles, aproveitando suas melhores potencialidades.

Ano

1997

Creators

Andreia Gentil Bonfante

Sistema híbrido: raciocínio baseado em casos e redes neurais

Os processos de recuperação e aprendizado de casos, que exercem um papel fundamental, em sistemas de Raciocínio Baseado em Casos, não são fáceis de serem desenvolvidos. Estes dois processos são bastante dependentes. Os casos devem ser recuperados rapidamente da memória para o sistema de Raciocínio Baseado em Casos ser eficiente. Isto implica em estruturas mais elaboradas para armazenálos, organizá-los e recuperá-los. Quando um conhecimento novo é incorporado ao sistema (aprendizado), a reorganização dos casos na memória torna-se muito complexa devido justamente à estas estruturas. O principal objetivo deste trabalho é a integração de Raciocínio Baseado em Casos e Redes Neurais. Neste trabalho, uma Rede Neural, modelo ART1, é utilizada para auxiliar na recuperação e aprendizado de casos em um sistema de Raciocínio Baseado em Casos.

Ano

1997

Creators

Claudia Regina Milaré

Uso de Métodos Bayesianos na Análise de Dados de Confiabilidade de Software Considerando Tempos entre Falhas

Nesta dissertação de mestrado, apresentamos análises Clássica e Bayesiana para os principais modelos de Estratégia tipo I, estratégia de modelos de confiabilidade de software que modelam os tempos entre falhas do software. Na análise Clássica, estimadores pontuais e intervalos de confiança são encontrados usando métodos assintóticos. Na análise Bayesiana, considerando densidades a priori informativas para os parâmetros dos modelos, determinamos os resumos a posteriori, utilizando os métodos de simulação Gibbs Sampling e Metrópolis Hastings. Em particular, consideramos diferentes densidades a priori para os parâmetros do modelo de Jelinski e Moranda (1972) (um dos primeiros modelos de confiabilidade de software desenvolvido) e verificamos a consequência de uma reparametrização para esse modelo. Também, apresentamos a técnica das distribuições preditivas condicionais ordenadas (CPO) para selecionar o melhor modelo dentre os modelos analisados. Finalizamos, ilustrando os métodos propostos através de um exemplo prático

Ano

1997

Creators

Daniela Brassolatti

Inferência Bayesiana para o Modelo de Jelinski-Moranda via Parâmetros Ortogonais

Apresentamos neste trabalho, um estudo do modelo de confiabilidade de software de Jelinski e Moranda (1972). Enfocamos, a importância da análise Bayesianapara a correção da instabilidade do estimador de máxima verossimilhança de N (número de erros do software), e a ortogonalização de Cox e Reid (1987) para a realização de inferência Bayesiana sobre a taxa de falhas A. Também, caractenzamos a existência da densidade a posteriori de { quando admitimos densidades a priori não-informativas e impróprias aos parâmetros do modelo. Destacamos o comportamento dos métodos de aproximação de Monte Carlo em cadeias de Markov, para a obtenção da distribuição a posteriori de N quando esta é imprópria.

Ano

1997

Creators

Daniele da Silva Baratela

Problemas de Dimensionamento de Lotes com Aplicações Numa Fundição Automatizada

Neste trabalho estudam-se problemas de dimensionamento de lotes com aplicações específicas em uma fundição automatizada. Quando várias ligas são consideradas na programação, o problema é modelado com um problema de programação linear inteira mista; caso contrário como um problema de programação linear. Algumas hipóteses são assumidas sobre o gargalo e heurísticas são desenvolvidas. Mostra-se também como a fundição pode ser integrada a um sistema de múltiplos estágios, tais como usinagem e montagem. Experiências computacionais sobre o desempenho dos métodos são relatadas.

Ano

1997

Creators

Elisangela dos Santos Meza

Projeto Evolucionário de Redes Neurais Artificiais para Avaliação de Crédito Financeiro

O risco de crédito a pessoas físicas tem sido avaliado empiricamente ou por sistemas de credit score. No entanto, com o crescimento do mercado de crédito ao varejo, o assunto passou a merecer maior preocupação em razão da elevação das taxas de inadimplência, que vem causando enormes prejuízos aos doadores de recursos. Redes Neurais Artificiais (RNA) podem ser treinadas utilizando grandes quantidades de exemplos significativos. Utilizando esta técnica, as avaliações podem ser modeladas através de exemplos encontrados nos históricos dos clientes das aplicações de crédito. Contudo, a topologia e os parâmetros de aprendizado das RNA precisam ser apropriadamente estabelecidos para que a rede funcione eficientemente. Para resolver este tipo de problema, recentemente vêm sendo utilizados Algoritmos Genéticos (AG), algoritmos baseados em mecanismos genéticos e de seleção natural, que podem ser utilizados para encontrar as arquiteturas mais eficientes. O objetivo deste projeto é investigar como o projeto de RNA pode se beneficiar de AG para a determinação de sua arquitetura e o comportamento de RNA como técnica para análise de risco crédito financeiro. Para avaliar os modelos desenvolvidos, foram utilizados dois conjuntos de dados diferentes, compostos de informações sobre aplicações reais de crédito. O primeiro deles é constituído por dados de aplicações de cartão de crédito, cujo objetivo do modelo é \"imitar\" a avaliação humana. O segundo é constituído por dados de clientes de crédito bancário e seus históricos de pagamento com o objetivo de prever o comportamento de futuros clientes.

Ano

1997

Creators

Elson Felix Mendes Filho