Repositório RCAAP
An analysis of sample synthesis for deep learning based object detection
This work investigates the use of artificially synthesized images as an attempt to reduce the dependency of modern Deep Learning based Object Detection techniques on expensive supervision. In particular, we propose using a big number of synthesized detection samples to pretrain Object Detection architectures before finetuning them on real detection data. As the major contribution of this project, we experimentally demonstrate how this pretraining works as a powerful initialization strategy, allowing the models to achieve competitive results using only a fraction of the original real labeled data. Additionally, in order to synthesize these samples, we propose a synthesis pipeline capable of generating an infinite stream of artificial images paired with bounding box annotations. We demonstrate how it is possible to design such a working synthesis pipeline just using already existing GAN techniques. Moreover, all stages in our synthesis pipeline can be fully trained using only classification images. Therefore, we managed to take advantage of bigger and cheaper classification datasets in order to improve results on the harder and more supervision hungry Object Detection problem. We demonstrate the effectiveness of this pretraining initialization strategy combined with the proposed synthesis pipeline, by performing detection using four real world objects: QR Codes, Faces, Birds and Cars.
Modelos neurais para regressão de séries temporais
Dada a crescente importância da predição de resistência compressiva do cimento para um uso mais eciente de recursos na indústria, literatura recente busca analisar quais modelos estatísticos podem auxiliar o processo indústrial. Esse trabalho documenta a aplicação de técnicas de Deep Learning Bayesiano para a geração de predições temporais robustas e conáveis para a resistência compressiva do cimento. Os resultados mostram que técnicas de Inferência Bayesiana para modelos de Aprendizado Profundo promovem um ganho sensível de acurácia para o problema de predição de RC, com o benefício adicional das características probabilísticas das predições, tornando-as mais seguras para o possível uso no chão de fábrica.
2020
Thiago Ildeu Albuquerque Lira
A self-supervised learning approach for astronomical images
Modern astronomical sky surveys are providing us with a flood of images with unusual characteristics, such as numerous channels, saturated signals, faint signals, uncertainties, and varying signal-to-noise ratios. The complexity and diversity of these images make them an adequate use case for deep convolutional neural networks. Moreover, they yield millions of detected objects whose classes are mostly unknown. Given this context, the main objective of this work is to investigate deep representation learning approaches for multichannel astronomical images, focusing on finding reasonable representations that do not require labeled data and that make use of some domain knowledge. A reasonable representation may be thought of as one that contains enough discriminative information, that can be later used for higher-level tasks such as object classification, outlier detection and clustering. We propose a self-supervised learning approach that makes use of astronomical properties (more specifically, magnitudes) of the objects in order to pretrain deep neural networks with unlabeled data. We choose the task of classifying galaxies, stars and quasars as a baseline for quantifying the quality of the learned representations, and empirically demonstrate that our approach yields results that are better than -- or at least comparable to -- a benchmark RGB model pretrained on ImageNet.
2021
Ana Carolina Rodrigues Cavalcante Martinazzo
Uso de informação linguística e análise de conceitos formais no aprendizado de ontologias
Na atualidade, o interesse pelo uso de ontologias tem sido incrementado. No entanto, o processo de construção pode ser custoso em termos de tempo. Para uma ontologia ser construída, precisa-se de um especialista com conhecimentos de um editor de ontologias. Com a finalidade de reduzir tal processo de construção pelo especialista, analisamos e propomos um método para realizar aprendizado de ontologias (AO) de forma supervisionada. O presente trabalho consiste em uma abordagem combinada de diferentes técnicas no AO. Primeiro, usamos uma técnica estatística chamada C/NC-values, acompanhada da ferramenta Cogroo, para extrair os termos mais representativos do texto. Esses termos são considerados por sua vez como conceitos. Projetamos também uma gramática de restrições (GR), com base na informação linguística do Português, com o objetivo de reconhecer e estabelecer relações entre conceitos. Para poder enriquecer a informação na ontologia, usamos a análise de conceitos formais (ACF) com o objetivo de identificar possíveis superconceitos entre dois conceitos. Finalmente, extraímos ontologias para os textos de três temas, submetendo-as à avaliação dos especialistas na área. Um web site foi feito para tornar o processo de avaliação mais amigável para os avaliadores e usamos o questionário de marcos de características proposto pelo método OntoMetrics. Os resultados mostram que nosso método provê um ponto de partida aceitável para a construção de ontologias.
2012
Carlos Eduardo Atencio Torres
Contribuições para interação pelo olhar com teclados virtuais
A presente tese de doutorado insere-se na área de interação pelo olhar. A interação pelo olhar é uma forma de comunicação com o computador utilizando os movimentos oculares do usuário. Pessoas com deficiência física, que não conseguem usar dispositivos convencionais como um teclado e um mouse de computador, podem se beneficiar da interação pelo olhar para se comunicarem e se inserirem na sociedade. Para isso a entrada de texto ou digitação pelo olhar é um recurso importante e assunto principal dessa tese. O instrumento mais comum para entrada de texto pelo olhar consiste de um teclado virtual onde os caracteres são selecionados por tempo de latência. Essa forma de interação, embora simples, sofre de seleções involuntárias (problema conhecido como toque de Midas) se o tempo de latência for curto (menos de 500 ms). Já para tempos de latência mais longos, a interação se torna lenta. Alternativas para entrada de texto pelo olhar são os gestos discretos ou contínuos do olhar. O uso de gestos discretos permite reduzir o toque de Midas, porém o desempenho é inferior ao tempo de latência. Já nos métodos baseados em gestos contínuos, o olhar está sempre preso ao controle da interface. Uma técnica de interação proposta recentemente, chamada de \"alternância entre contextos\", permite reduzir o efeito do toque de Midas, utilizando apenas uma sacada para cada seleção. Além disso, essa técnica permite aos usuários manterem o ritmo de interação sem ajustar nenhum parâmetro na interface. A presente tese de doutorado visa melhorar a usabilidade e experiência dos usuários na interação pelo olhar com teclados virtuais. Os objetivos específicos são: investigar a relação entre a manipulação do contraste dos estímulos visuais e o tempo de reação sacádico para facilitar os movimentos oculares e tornar a interação mais rápida e agradável; propor e investigar novas extensões e aplicações da alternância entre contextos, visando reduzir o toque de Midas e ao mesmo tempo generalizar o método para outras tarefas de navegação e seleção de objetos pelo olhar; e desenvolver novos métodos de entrada de texto pelo olhar para melhorar a velocidade de digitação dos usuários, sem incrementar a carga de trabalho e mantendo a interação simples e fácil de aprender. A avaliação dos novos métodos e modelos propostos foi feita por meio de vários estudos com usuários. Os dados coletados nos estudos, tanto quantitativos quanto qualitativos, foram analisados com métodos estatísticos utilizados na área de interação homem-computador. As contribuições originais apresentadas na presente tese são: a proposta e a avaliação do efeito gap gradiente como feedback visual para facilitar a execução de movimentos sacádicos durante a interação pelo olhar; a proposta e investigação de contextos dinâmicos como extensão da alternância entre contextos, para permitir um melhor aproveitamento da área útil do monitor com uma baixa taxa de erros de seleção, assim como de meta-keys para navegação e execução de comandos de forma geral; e a proposta e a avaliação de AugFix, um novo modelo de feedback visual que melhora a velocidade e a experiência dos usuários na entrada de texto pelo olhar, com aplicação em teclados virtuais baseados nos paradigmas do tempo de latência e a alternância entre contextos.
Property testing and parameter estimation
A graph property P is said to be testable with sample complexity q(\\eps) if, for every \\eps>0, there is a randomized decision algorithm that distinguishes objects satisfying P from graphs ``\\eps-far\'\' from satisfying P, after inspecting a sample of size at most q(\\eps) of the input graph G (in particular, the sample size does not depend on |V(G)|). Although the set of testable graph properties is now well understood, results for general properties P tipically rely on variants of Szemerédi\'s regularity lemma, giving tower-type upper bounds for the sample complexity q(\\eps). Therefore, current research in the area is focused on obtaining better bounds for the sample complexity required to test specific properties P. A (normalized) graph parameter f is said to be estimable with sample complexity q(\\eps) if, for every \\eps>0, there is a randomized algorithm that estimates the parameter f(G) up to an additive error of \\eps, after inspecting a sample of size at most q(\\eps) of the input G. If the graph parameter being estimated is the distance \\dP to a graph property P, Fischer and Newman proved that \\dP is estimable for every testable P, but their proof provides a tower-type upper bound for estimating \\dP, even if P can be efficiently testable. This thesis focuses on getting better upper bounds for the sample complexity required to estimate certain parameters and test certain properties. Our first contribution states that one can test the property of having a partition of size k with any given prescribed pairwise densities with a sample complexity polynomial in \\eps^ and k. This result, which improves upon a previous (exponential in k) bound given by Goldreich, Goldwasser and Ron (1998), is an important tool for achieving our other contributions. Our main contribution shows that if a hereditary property P is testable with sample complexity q(\\eps), then distance \\dP is estimable with sample complexity at most exponential in q(\\eps). In particular, for hereditary properties P known to be be efficiently testable, our method provides much better bounds than the ones relying on Szemerédi\'s regularity lemma. Our techniques also allow one to get more reasonable bounds for estimating other graph parameters. We also prove negative results about testing graph properties described by linear constraints of subgraph densities, which were considered by Goldreich and Shinkar (2016). We conclude this thesis by proving bounds for the complexity of testing that every hereditary property of configurations of points in the plane is testable.
Componentes para interoperabilidade entre redes sociais na Web 2.0
Nos últimos anos, as redes sociais na Web 2.0 vêm ganhando cada vez mais importância para trabalhar e compartilhar ideias. As redes sociais armazenam informações do usuário, como preferências, experiência profissional, dados pessoais e com quem o usuário interage. Essas informações são úteis para diversos fins, como oferecer produtos e serviços personalizados. Com a aparição de cada vez mais redes sociais, surgem problemas como a duplicação de perfis de usuários. Atualmente há algumas técnicas para interoperar as redes sociais, como serviços de autenticação única ou representação padrão para compartilhamento de dados. O objetivo deste trabalho foi realizar um estudo dessas técnicas e tecnologias disponíveis, implementá-las por meio de componentes do Groupware Workbench, e implantar e avaliar os componentes desenvolvidos na rede social Arquigrafia. A avaliação dos componentes foi realizada por meio dos aspectos e questões propostos pelo projeto DataPortability. A avaliação mostrou que as questões diretamente relacionadas com a interoperabilidade técnica e semântica foram respondidas.
2013
Carlos Leonardo Herrera Muñoz
Decomposição sequencial a partir da sup-representação de W-operadores
Os W-operadores são operadores invariantes por translação e localmente definidos dentro de uma janela W. Devido a sua grande utilidade em análise de imagens, estes operadores foram extensamente pesquisados, sendo que uma abordagem para o seu estudo é a partir da Morfologia Matemática. Uma propriedade interessante de W-operadores é que eles possuem uma sup-decomposição, ou seja, um W-operador pode ser decomposto em termos de uma família de operadores sup-geradores que, por sua vez, são parametrizados por elementos da base desse $W$-operador. No entanto, a sup-decomposição tem uma estrutura intrinsecamente paralela que não permite uma implementação eficiente em máquinas de processamento sequencial. Em um trabalho publicado em 2001, Hashimoto e Barrera formalizaram o problema de transformar a sup-decomposição em decomposições puramente sequenciais como um problema de encontrar soluções discretas de uma equação. Neste texto, estendemos o trabalho desenvolvido por eles. Estudamos e exploramos as propriedades matemáticas do problema, e desenvolvemos estratégias heurísticas para encontrar uma decomposição sequencial de um $W$-operador a partir de sua base que seja eficiente ao ser executado.
2013
Joel Edu Sanchez Castro
Programação em dois níveis: reformulação utilizando as condições KKT
Em um problema de natureza hierárquica, o nível mais influente toma certas decisões que afetam o comportamento dos níveis inferiores. Cada decisão do nível mais influente é considerada como fixa pelos níveis inferiores, que, com tais informações, tomam decisões que maximizam seus objetivos. Essas decisões podem influenciar os resultados obtidos pelo nível superior, que, por sua vez, também anseia pela decisão ótima. Em programação matemática, este problema é modelado como um problema de programação em níveis. Neste trabalho, consideramos uma classe particular de problemas de programação em níveis: os problemas de programação matemática em dois níveis. Estudamos uma técnica de resolução que consiste em substituir o problema do nível inferior por suas condições necessárias de primeira ordem, que podem ser formuladas de diversas maneiras, conforme as restrições de complementaridade são modificadas. O novo problema torna-se um problema de programação não linear e pode ser resolvido com algoritmos clássicos de otimização. Com o auxílio de condições de otimalidade de primeira e segunda ordem mostramos as relações entre o problema original e o problema reformulado. Aplicamos a técnica a problemas encontrados na literatura, analisamos o seu comportamento e apresentamos estratégias para eliminar certos inconvenientes encontrados.
2008
Francisco Nogueira Calmon Sobral
iTarefa: componente Moodle para incorporar Módulos deAprendizagem Interativa em cursos Web
O computador tem sido empregado na educação praticamente desde seu surgimento e a literatura tem apontado como vantagens de sua incorporação no processo de ensino-aprendizagem, seu potencial de promoção de interatividade e de resposta rápida (retroação). Mais recentemente, com a grande popularização da Web, o uso de Sistemas Gerenciadores de Cursos (SGC) passou a ser ferramenta necessária para personalizar o aprendizado do aluno e para sintetizar informações ao professor. Além disso os SGC viabilizaram o surgimento de uma grande quantidade de cursos na modalidade de Educação a Distância (EAD). Dentre os SGC um que merece destaque é o Moodle, em função de ser um sistema livre e por adotar uma arquitetura modular que permite a incorporação de novas ferramentas. Entretanto, nota-se atualmente uma carência no Moodle de ferramentas que proporcionem aprendizado interativo e que eventualmente permita retroação imediata. Deste modo, a proposta deste trabalho é o enriquecimento do Moodle, apresentando um novo pacote, o iTarefa, que possibilita o gerenciamento de atividades interativas. O iTarefa possibilita a incorporação de qualquer applet Java, desde que este esteja na forma de um Módulo de Aprendizagem Interativa (iMA). Neste trabalho serão apresentados, além do pacote iTarefa, os resultados de seu uso em disciplina de graduação e alguns minicursos para professores e alunos do ensino fundamental e médio.
2011
Patricia Alves Rodrigues
A contribuição da indústria da manufatura no desenvolvimento de software
Os Métodos Ágeis surgiram no final da década de 90, como uma alternativa aos métodos prescritivos de desenvolvimento de software. Eles propõem uma nova abordagem de desenvolvimento, eliminando gastos com documentação excessiva e burocrática, enfatizando a interação entre as pessoas e as atividades que efetivamente trazem valor ao cliente. Nos últimos anos, diversos princípios e práticas baseados na indústria de manufatura foram incorporadas pelos Métodos Ágeis de desenvolvimento de software. Um dos princípios absorvidos é o de melhorar a eficácia de uma organização através de melhorias globais. Embora este princípio seja bem difundido nos Métodos Ágeis, utilizá-lo não é uma tarefa fácil. Nem sempre é fácil ter uma visão global do processo de desenvolvimento. Além disso, para realizar melhorias globais é necessário descobrir a causa para possíveis problemas, o que também pode ser uma tarefa difícil. Esse trabalho investiga duas abordagens da indústria de manufatura que enxergam uma organização como um sistema no qual todas as partes são inter-relacionadas. Com base nelas, três abordagens de desenvolvimento de software existentes são analisadas. Finalmente, um estudo comparativo foi feito para avaliar as principais características dos métodos de desenvolvimento estudados. Esse estudo estende o trabalho feito por Abrahamssom et al., no livro Agile Software Development: Current Research and Future Directions, avaliando o desempenho dos métodos seguindo o arcabouço proposto pelos mesmos autores.
Teoria de Ramsey para circuitos e caminhos
Os principais objetos de estudo neste trabalho são os números de Ramsey para circuitos e o lema da regularidade de Szemerédi. Dados grafos $L_1, \\ldots, L_k$, o número de Ramsey $R(L_1,\\ldots,L_k)$ é o menor inteiro $N$ tal que, para qualquer coloração com $k$ cores das arestas do grafo completo com $N$ vértices, existe uma cor $i$ para a qual a classe de cor correspondente contém $L_i$ como um subgrafo. Estaremos especialmente interessados no caso em que os grafos $L_i$ são circuitos. Obtemos um resultado original solucionando o caso em que $k=3$ e $L_i$ são circuitos pares de mesmo tamanho.
2007
Fabricio Siqueira Benevides
Uma comparação de métodos de classificação aplicados à detecção de fraude em cartões de crédito
Em anos recentes, muitos algoritmos bio-inspirados têm surgido para resolver problemas de classificação. Em confirmação a isso, a revista Nature, em 2002, publicou um artigo que já apontava para o ano de 2003 o uso comercial de Sistemas Imunológicos Artificiais para detecção de fraude em instituições financeiras por uma empresa britânica. Apesar disso, não observamos, a luz de nosso conhecimento, nenhuma publicação científica com resultados promissores desde então. Nosso trabalho tratou de aplicar Sistemas Imunológicos Artificiais (AIS) para detecção de fraude em cartões de crédito. Comparamos AIS com os métodos de Árvore de Decisão (DT), Redes Neurais (NN), Redes Bayesianas (BN) e Naive Bayes (NB). Para uma comparação mais justa entre os métodos, busca exaustiva e algoritmo genético (GA) foram utilizados para selecionar um conjunto paramétrico otimizado, no sentido de minimizar o custo de fraude na base de dados de cartões de crédito cedida por um emissor de cartões de crédito brasileiro. Em adição à essa otimização, fizemos também uma análise e busca por parâmetros mais robustos via multi-resolução, estes parâmetros são apresentados neste trabalho. Especificidades de bases de fraude como desbalanceamento de dados e o diferente custo entre falso positivo e negativo foram levadas em conta. Todas as execuções foram realizadas no Weka, um software público e Open Source, e sempre foram utilizadas bases de teste para validação dos classificadores. Os resultados obtidos são consistentes com Maes et al. que mostra que BN são melhores que NN e, embora NN seja um dos métodos mais utilizados hoje, para nossa base de dados e nossas implementações, encontra-se entre os piores métodos. Apesar do resultado pobre usando parâmetros default, AIS obteve o melhor resultado com os parâmetros otimizados pelo GA, o que levou DT e AIS a apresentarem os melhores e mais robustos resultados entre todos os métodos testados.
2008
Manoel Fernando Alonso Gadi
Jogos de Steiner
Neste projeto analisamos jogos de formação de redes que são variantes do problema da floresta de Steiner, nos quais indivíduos desejam conectar conjuntos de vértices terminais em um grafo de forma a minimizar seus custos, podendo dividir o custo das arestas com os demais participantes. Estudamos como o método de divisão de custos influencia na existência e na qualidade dos equilíbrios desses jogos em comparação com o valor da solução ótima centralizada.
Um método de pontos interiores primal-dual viável para minimização com restrições lineares de grande porte
Neste trabalho, propomos um método de pontos interiores para minimização com restrições lineares de grande porte. Este método explora a linearidade das restrições, partindo de um ponto viável e preservando a viabilidade dos iterandos. Apresentamos os principais resultados de convergência global, além de uma descrição rica em detalhes de uma implementação prática de todos os passos do método. Para atestar a implementação do método, exibimos uma ampla experimentação numérica, e uma análise comparativa com métodos bem difundidos na comunidade de otimização contínua.
2014
John Lenon Cardoso Gardenghi
Ambiente de testes utilizando verificação de componentes java com tratamento de exceções
Um sistema de software que apresente problemas em sua execução pode gerar conseqüências desde um simples incômodo ao usuário, até desastres como a perda de uma sonda da NASA em Marte. As atividades de teste visam identificar erros nos sistemas de software, prevenindo estas conseqüências indesejáveis. Porém, os testes podem envolver entre 30% e 40% do esforço de desenvolvimento do sistema, e em sistemas críticos, seu custo pode ser de 3 a 5 vezes maior do que o custo combinado das demais atividades. Para tentar reduzir estes custos podemos automatizar parte das atividades. No presente caso, pretende-se minimizar os casos de teste gerados manualmente, utilizando uma técnica denominada verificação de modelos. Esta técnica consiste em verificar propriedades definidas formalmente através de expressões matemáticas, utilizando uma ferramenta de verificação que simula a execução do código. Além disso, um sistema que utilize um tratamento de condições excepcionais eficiente, tem sua manutenibilidade, robustez e confiabilidade melhoradas. Por isso, definimos propriedades relacionadas ao tratamento de exceções, como ponto de entrada para a verificação de modelos. Apresentamos um ambiente de testes criado para permitir a verificação destas propriedades com o verificador Java PathFinder e a exibição das estatísticas de cobertura de testes de acordo com o critério selecionado. Este ambiente facilita a execução dos testes, pois apresenta uma interface gráfica com o usuário que permite a configuração e execução dos testes sem que seja necessária a escrita de código pelo testador. Apresentamos também o resultado do uso deste ambiente para o teste de vários programas exemplo, utilizando desde código concorrente até diferentes estratégias de tratamento de exceção e discutimos as características, cuidados no uso e limitações das ferramentas utilizadas.
Teste e verificação formal do comportamento excepcional de programas Java
Estruturas de tratamento de exceção são extremamente comuns em softwares desenvolvidos em linguagens modernas, como Java, e afetam de forma contundente o comportamento de um software quando exercitadas. Apesar destas duas características, as principais técnicas de verificação, teste de software e verificação formal, e as ferramentas a elas vinculadas, tendem a negligenciar o comportamento excepcional. Alguns dos fatores que levam a esta negligência são a não especificação do comportamento excepcional em termos de projeto e a consequente implementação das estruturas de tratamento com base no julgamento individual de cada programador. Isto resulta na não consideração de partes expressivas do código em termos de verificação e, consequentemente, a possibilidade de não serem detectados erros relativos tanto às próprias estruturas de tratamento quanto às estruturas de código vinculadas a estas. A fim de abordar este problema, propomos uma técnica, baseada em model checking, que automatiza o processo de exercício de caminhos excepcionais. Isto permite que seja observado o comportamento de um software quando da ocorrência de uma exceção. Pretendemos, com esta técnica, dar suporte para que seja aplicado aos caminhos que representam o comportamento excepcional de um software as mesmas técnicas de detecção de erros que são aplicadas aos caminhos que representam o comportamento normal e, com isso, agregar um aumento na qualidade do desenvolvimento de software.
2014
Alexandre Locci Martins
ACP e LOTOS: um estudo comparativo baseado em conceitos de BPEL e padrões de controle de fluxo
Recentemente, várias abordagens estão sendo propostas na área de modelagem de processos de negócio. Dentre elas estão as linguagens BPEL e NPDL. BPEL é uma linguagem de representação e execução de processos de negócio que se mostrou bastante expressiva e uma forte candidata a padrão de mercado. NPDL é uma linguagem de definição de processos de negócio baseada em uma extensão de álgebra de processos chamada ACP. NPDL possui uma ferramenta capaz de interpretar e controlar a execução de processos de negócio chamada de NavigationPlanTool. A tradução de processos BPEL para expressões NPDL tem como objetivo fornecer aos processos descritos em BPEL um ambiente de controle e execução baseado em um formalismo algébrico. Entretanto, isso não é uma tarefa fácil. A presença de conceitos em BPEL que não são mapeáveis para NPDL faz com que grande parte da expressividade de BPEL se perca na tradução. Essa perda se dá pela limitação da própria ACP, na qual NPDL se baseia. Para sanar essa dificuldade, surgiu a idéia de estender ou trocar a base algébrica da NPDL. Substituindo a ACP por outro arcabouço algébrico ou incorporando idéias de outras álgebras, seria possível tornar a NPDL mais próxima de BPEL, facilitando, assim, o trabalho de mapeamento. Dentre os arcabouços formais disponíveis, LOTOS tem se mostrado uma interessante alternativa à ACP como base para a NPDL. Para comprovar os benefícios da utilização de conceitos de LOTOS na NPDL ou, até mesmo, de uma troca da base algébrica da NPDL de ACP para LOTOS, este trabalho faz um estudo comparativo entre esses dois formalismos algébricos, buscando encontrar a álgebra com maior expressividade e que represente melhor os conceitos presentes em BPEL. Para essa comparação, serão utilizados os principais conceitos existentes na linguagem BPEL, bem como os Padrões de Controle de Fluxo de Workflow. Não pertence ao escopo deste trabalho a implementação da NPDL usando LOTOS como base formal.
Algoritmos Evolutivos aplicados ao Classificador baseado em Segmentos de Reta
Nos ultimos anos o uso de tecnicas de aprendizado computacional tornou se uma das tarefas comumente realizadas, pois tem inumeras aplicacoes de reconhecimento de padroes, tais como: reco- nhecimento de voz, classificacao de texto, reconhecimento facial, diagnostico por imagens medicas, entre outras. Dessa forma, um grande numero de tecnicas que lidam com este tipo de problema tem sido desenvolvido ate o momento. Neste trabalho apresentamos uma alternativa para melhorar a taxa acerto de classificacao do classificador binario SLS, que apresentou resultados comparaveis com as SVMs. Nesse metodo, o Gradiente Descendente e utilizado para otimizar a posicao final dos conjuntos de segmentos de reta que representarao cada classe. Embora convirja rapidamente a um valor otimo, muitas vezes e possivel o algoritmo parar em uma regiao de otimos locais, que nao representa o minimo global. Dado esse problema, foram utilizados diferentes algoritmos evolutivos em combinacao com o Gradiente Descendente a fim de melhorar a acuracia do classificador SLS. Adicionalmente a aplicacao de algoritmos evolutivos na fase de treinamento do classificador SLS, foram exploradas duas propostas: (i) explorar o uso de diferente numero de segmentos de reta para representar a distribuicao de dados de cada classe. Dado que no algoritmo original do metodo SLS o numero de segmentos de reta e igual para cada classe, o qual pode significar alguma perda de acuracia ou sobreposicao dos segmentos de reta; (ii) estimar a melhor combinacao de segmentos de reta a serem usados para cada classe. O uso de diferentes quantidades de segmentos de reta por classe pode ser de ajuda na obtencao de melhores porcentagens de acerto, mas determinar uma quantidade otima que permita representar cada classe, e um trabalho dificil. Assim, usamos o algoritmo X-Means, que e um algoritmo de agrupamento, para estimar o numero de segmentos de reta. As propostas exibiram bons resultados que possibilitam a aplicacao do classificador SLS, com um algoritmo de treinamento hibrido, em problemas reais.
2012
Rosario Alejandra Medina Rodríguez
Coordenação de Agentes Móveis através do Canal de Broadcast
Em aplicações distribuídas baseadas em agentes móveis, a coordenação das ações dos agentes móveis é uma tarefa complexa. A maior dificuldade é devido ao fato que agentes móveis podem mudar de endereço dinamicamente. Nesta dissertação, apresentamos o projeto e a implementação de um mecanismo de coordenação de agentes móveis que contorna este problema. Este mecanismo, que chamamos de Canal de Broadcast, está baseado na difusão de mensagens e possibilita que os membros de um grupo de agentes móveis interajam entre si, independentemente de suas localizações correntes. Modelos de coordenação existentes oferecem formas de interação entre agentes móveis, mas todos eles impõem alguma exigência. Ou os agentes móveis devem conhecer a localização de outros agentes, ou devem estar localizados no mesmo lugar ou devem migrar para um lugar específico. A principal vantagem deste mecanismo de coordenação está na total transparência de localização: as mensagens podem ser endereçadas a um conjunto de agentes móveis independentemente de sua localização corrente. Este mecanismo foi implementado no ASDK (Aglets Software Development Kit) da IBM e a sua utilidade foi demonstrada usando dois problemas típicos de coordenação em Sistemas Distribuídos: a Exclusão Mútua e o protocolo Manager-Workers. Testamos o desempenho do mecanismo e identificamos que o custo do Canal de Broadcast não é tão alto comparado aos benefícios que proporciona. Através deste mecanismo, os agentes móveis poderão executar as suas tarefas e interagir entre sí com o propósito da coordenação sem as exigências impostas por outros modelos de coordenação.