Repositório RCAAP
CITRUSVIS - Um sistema de visão computacional para a identificação do fungo Guignardia citricarpa, causador da mancha preta em citros
As pragas e doenças apresentam-se como um desafio para a citricultura brasileira em razão do impacto económico que elas causam à produção. Neste trabalho é dado destaque à doença da mancha preta (MPC), causada pelo fungo Guignardia citricarpa. Essa doença provoca lesões no fruto, depreciando-o no mercado de frutas in natura, além de causar amadurecimento e queda precoce. Um dos principais agravantes da doença é a demora no aparecimento dos sintomas, sendo muito importante detectar a presença dos esporos do fungo no pomar, antes que os sintomas apareçam. Dessa maneira, há a possibilidade de se controlar a doença de forma eficaz, aplicando-se quantidades menores de fungicidas e, consequentemente, reduzindo os custos da produção e os efeitos deletérios ao meio-ambiente. Atualmente, a detecção desses esporos é realizada por meio da análise de amostras coletadas nos pomares. Essa análise é efetuada por especialistas que realizam a identificação e a contagem dos ascósporos manualmente. Com o objetivo de automatizar esse processo, um conjunto de técnicas para a análise das imagens e a caracterização dos ascósporos do fungo a partir da forma foi estudado e comparado. Dentre as técnicas, a curvatura e os descritores de Fourier apresentaram resultados bastante satisfatórios e foram utilizados na implementação do protótipo de um sistema de visão computacional - o CITRUSVIS, que analisa e identifica os ascósporos existentes nas imagens dos discos de coleta.
2022-12-06T14:47:11Z
Mário Augusto Pazoti
Aplicação do processo de Hawkes multivariado para prever o movimento do preço médio de livro de ofertas
Com a modernização do mercado financeiro, além da automatização de várias tarefas, uma grande quantidade de dados ficou disponível para operadores e pesquisadores utilizarem na criação de modelos e indicadores para entender o comportamento de investidores e seu impacto nos preços. Entre as várias formas de previsão, o Processo de Hawkes tem sido explorado como uma forma simples e flexível de analisar a dinâmica da microestrutura do mercado financeiro por meio da interação de eventos. Este trabalho implementa o processo de Hawkes multivariado para fazer previsões do movimento do preço-médio entre a melhor oferta de compra e de venda do livro de ofertas de ativos. Os resultados demonstraram uma precisão de aproximadamente 70% para previsão durante um período de 23 dias de um ativo de grande liquidez. Além disso, este trabalho apresenta a exploração de um algoritmo de negociação usando o método de Hawkes e apresenta a comparação dos resultados com estimativas feitas por meio de uma rede neural. Por fim, este projeto mostra os principais desafios para tornar este processo de Hawkes viável para problemas de previsão de preço em aplicações em tempo real. Por exemplo, a aceleração da computação de funções necessárias para os ajustes de parâmetros que ocorre periodicamente.
2022-12-06T14:47:11Z
Luis Henrique Claudino Silva
SSPOT-VR: Uma Estação Espacial em Realidade Virtual para Treinamento em Programação
Tecnologia e Computação têm se tornado ubíquas, sendo necessárias para buscar conhecimento, pesquisar e trocar informações, se comunicar com pessoas e máquinas, trabalhar e muito mais. O avanço e a disseminação de computadores e dispositivos móveis também estão afetando o mundo: econômico, científico, tecnológico, social e cultural, fazendo com que seja essencial dominar fundamentos de tecnologia e Computação, incluindo programação, para resolver problemas de qualquer área, melhor entender o mundo e atuar criticamente no século XXI. Com a programação se tornando fundamental em diversas áreas e sendo uma competência desejável em diferentes setores da sociedade, diferentes abordagens de ensino e aprendizagem têm sido desenvolvidas para que os estudantes e os instrutores prevaleçam sobre esta complexa tarefa. Tradicionalmente, listas de exercícios e ambientes de programação baseada em texto são utilizados. No entanto, estes métodos podem ser tediosos e desmotivadores, da mesma forma que fornecem baixo nível de estimulação visual, podendo ser até inadequados, considerando a idade dos estudantes. Uma alternativa são as linguagens visuais de programação, como a programação baseada em blocos (BBP), que oferece alto estímulo visual e facilidade de uso. Melhorar os recursos de ensino e aprendizagem disponíveis é importante para empoderar instrutores e alunos, visto que atualmente é possível aprender utilizando dispositivos móveis (m-learning) e experienciar mundos imersivos através da Realidade Virtual (RV). Os atuais apps de RV, focados no ensino e aprendizagem de programação, não adotam dispositivos móveis, além de raramente aproveitarem os benefícios da imersão. Apesar da quantidade de pesquisas relacionadas a m-learning, RV e BBP, há lacunas para pesquisas que reúnem estes tópicos na mesma aplicação. Neste trabalho de Mestrado, é proposto SSPOT-VR (estação espacial em Realidade Virtual para treinamento em programação), uma aplicação móvel de RV imersiva e programação baseada em blocos, criada para apoiar o ensino e aprendizagem de programação para estudantes Brasileiros da educação básica. O aplicativo integra métodos para o ensino e aprendizagem de programação, baseados em diretrizes educacionais, com a experiência estar em um mundo criado digitalmente. O SSPOT-VR foi criado para ser experienciado utilizando um visualizador de RV de baixo custo (óculos de RV), mas também pode ser experienciado diretamente na tela de dispositivos móveis. Adicionalmente, a aplicação utiliza storytelling e BBP para se conectar com os estudantes, para que os estudantes adentrem a atmosfera da aplicação e também para simplificar a interação com o mundo virtual. Foram conduzidos estudos empíricos com o SSPOT-VR para avaliar sua aceitação de uso e usabilidade. Os resultados providenciam evidências que os usuários adotariam o SSPOT-VR para utilização em um ambiente real de ensino-aprendizagem, bem como demonstram os níveis adequados de usabilidade da aplicação.
2022-12-06T14:47:11Z
Gustavo Martins Nunes Avellar
Animação de simulações de sistemas mecânicos multicorpos.
Este trabalho apresenta o Animbs (Animation for MBS), um sistema capaz de visualizar dados gerados por um sistema de simulação de engenharia (SD/FAST) na forma de animações por computador. SD/FAST é um sistema utilizado para o modelamento e a simulação de sistemas mecânicos multicorpos (MBS). O sistema Animbs permite a associação de uma geometria ao MBS sendo simulado e utiliza os dados produzidos pela simulação do SD/FAST para criar uma animação do comportamento do sistema mecânico e, dessa forma, melhorar a análise de dados feita pelos usuários do SD/FAST.
2022-12-06T14:47:11Z
Rogerio Toshiaki Kondo
Understanding interactive multidimensional projections
The large amount of available data on a diverse range of human activities provides many opportunities for understanding, improving and revealing unknown patterns in them. Powerful automatic methods for extracting this knowledge from data are already available from machine learning and data mining. They, however, rely on the expertise of analysts to improve their results when those are not satisfactory. In this context, interactive multidimensional projections are a useful tool for the analysis of multidimensional data by revealing their underlying structure while allowing the user to manipulate the results to provide further insight into this structure. This manipulation, however, has received little attention regarding their influence on the mappings, as they can change the final layout in unpredictable ways. This is the main motivation for this research: understanding the effects caused by changes in these mappings. We approach this problem from two perspectives. First, the user perspective, we designed and developed visualizations that help reduce the trial and error in this process by providing the right piece of information for performing manipulations. Furthermore, these visualizations help explain the changes in the map caused by such manipulations. Second, we defined the effectiveness of manipulation in quantitative terms, then developed an experimental framework for assessing manipulations in multidimensional projections under this view. This framework is based on improving mappings using known evaluation measures for these techniques. Using the improvement of measures as different types of manipulations, we perform a series of experiments on five datasets, five measures, and four techniques. Our experimental results show that there are possible types of manipulations that can happen effectively, with some techniques being more susceptible to manipulations than others.
2022-12-06T14:47:11Z
Samuel Gomes Fadel
Solução numérica do modelo constitutivo KBKZ-PSM para escoamentos com superfícies livres
Escoamentos viscoelásticos não estacionários com superfícies livres são comuns em muitos processos industriais e diversas técnicas numéricas têm sido empregadas para reproduzir computacionalmente estes processos. A maioria dos modelos empregados utiliza equações diferenciais na definição do tensor de tensões. Porém, para alguns grupos de fluidos complexos, por exemplo, fluidos de Boger, os modelos integrais mostram-se mais capacitados em fornecer uma boa aproximação para os comportamentos não lineares desses fluidos. Este trabalho trata da solução numérica do modelo constitutivo integral KBKZ-PSM para escoamentos transientes bidimensionais com superfícies livres. O método numérico proposto é uma técnica numérica que utiliza diferenças finitas para simular escoamentos com superfícies livres na presença de paredes sólidas. As principais características do método numérico proposto são: solução das equações de conservação de quantidade de movimento e massa utilizando um método semi-implícito; a condição de contorno na superfície livre é acoplada à equação de Poisson, o que garante conservação de massa; a discretização do tempo t é realizada por uma nova técnica numérica; o tensor de Finger é calculado pelo método dos campos de deformação e avançado no tempo pelo método de Euler modificado. Essa nova técnica é verificada em escoamentos cisalhantes e elongacionais. Adicionalmente, uma solução analítica desenvolvida para escoamentos em canais bidimensionais é empregada para verificar e analisar a convergência do método proposto. Com relação a escoamentos com superfícies livres, a convergência é verificada por meio de refinamento de malha nas simulações de um jato incidindo sobre placa rígida e no problema do inchamento do extrudado. Finalmente, o método é aplicado para investigar os problemas jet buckling e inchamento do extrudado de fluidos KBKZ-PSM.
2022-12-06T14:47:11Z
Juliana Bertoco
Um Sistema de Apoio ao Gerenciamento de Configuração de Software
Configuração de Software compreende itens de informação relevantes, produzidos durante o processo de engenharia de software, e constitui um importante recurso para os profissionais que trabalham com o software, desde que a configuração do software esteja completa e atualizada. A existência de uma Configuração de software completa e atualizada depende de um efetivo processo de Gerenciamento de Configuração de Software. As atividades que envolvem um processo de gerenciamento de configuração de software são complexas e necessitam de orientação e de ferramentas de apoio. Usualmente, essas ferramentas possuem um alto custo e não estão disponíveis para todos que delas necessitam. O Revision Control System (RCS) não é uma completa ferramenta de apoio ao gerenciamento de configuração de software, pois suporta apenas algumas funções das atividades do processo de gerenciamento. No entanto, o RCS pode ser muito útil na realização desse processo, além de ser um sistema de domínio público. Uma dificuldade no uso do RCS é sua interface, usualmente, baseada em comandos de linha. Para possibilitar uma maior facilidade de uso do sistema, neste trabalho foi desenvolvida uma interface gráfica para o RCS e um roteiro para implantar as atividades de gerenciamento de configuração de software em uma organização. Para a elaboração da interface gráfica, primeiramente, o RCS foi submetido a um processo de engenharia reversa, usando o método FUSION-RE. Este método produz um modelo de análise orientado a objetos (método FUSION) de sistemas desenvolvidos sem a tecnologia de orientação a objetos. O resultado desse processo de engenharia reversa foi uma visão mais abstrata do sistema que foi utilizada no desenvolvimento da interface gráfica usando XView.
2022-12-06T14:47:11Z
Lairce Castanhera Beraldi
PROTEUM - RS/ST: uma ferramenta para apoiar a validação de especificações statecharts baseada na análise de mutantes.
Atividades de teste no desenvolvimento de sistemas Reativos são de grande relevância, bem como a disponibilidade de ferramentas que apóiem essas atividades, pois falhas nesses sistemas podem causar graves conseqüências econômicas e/ou sociais. A Análise de Mutantes tem sido explorada no teste de especificações do aspecto comportamental de Sistemas Reativos baseadas em Máquinas de Estados Finitos, Statecharts e Redes de Petri. Este trabalho tem como objetivo a implementação da Proteum-RS/ST, que apóia o teste de especificações Statecharts baseada na Análise de Mutantes. Dessa forma, fornecem-se subsídios para se investigar a adequação de critérios tradicionalmente usados no teste de programas, como a Análise de Mutantes, no teste de especificações de Sistemas Reativos, em particular no contexto de especificações baseadas em Statecharts.
2022-12-06T14:47:11Z
Tatiana Sugeta
Suporte a sistemas de auxílio ao diagnóstico e de recuperação de imagens por conteúdo usando mineração de regras de associação
Neste trabalho, a mineração de regras de associação é utilizada para dar suporte a dois tipos de sistemas médicos: os sistemas de busca por conteúdo em imagens (Content-based Image Retrieval - CBIR) e os sistemas de auxílio ao diagnóstico (Computer Aided Diagnosis - CAD). Na busca por conteúdo, regras de associação são empregadas para reduzir a dimensionalidade dos vetores de características que representam as imagens e para diminuir o ``gap semântico\'\', que existe entre as características de baixo nível das imagens e seu significado semântico. O algoritmo StARMiner (Statistical Association Rule Miner) foi desenvolvido para associar características de baixo nível das imagens com o seu significado semântico, sendo também utilizado para realizar seleção de características em bases de imagens médicas, melhorando a precisão dos sistemas CBIR. Para dar suporte aos sistemas CAD, o método IDEA (Image Diagnosis Enhancement through Association rules) foi desenvolvido. Nesse método regras de associação são empregadas para sugerir uma segunda opinião ou diagnóstico preliminar de uma nova imagem para o radiologista. A segunda opinião automaticamente gerada pelo método pode acelerar o processo de diagnóstico de uma imagem ou reforçar uma hipótese, trazendo ao especialista médico um apoio estatístico da situação sendo analisada. Dois novos algoritmos foram propostos: um para pré-processar as características de baixo nível das imagens médicas e, o outro, para propor diagnósticos baseados em regras de associação. Vários experimentos foram realizados para validar os métodos desenvolvidos. Os experimentos realizados indicam que o uso de regras de associação pode contribuir para melhorar a busca por conteúdo e o diagnóstico de imagens médicas, consistindo numa poderosa ferramenta para descoberta de padrões em sistemas médicos
2022-12-06T14:47:11Z
Marcela Xavier Ribeiro
RAModelTI: agregando informações de teste de software no Modelo para Arquiteturas de Referência (RAModel)
Arquitetura de software e teste de software são importantes áreas com o objetivo comum de prover meios para que sistemas de software sejam desenvolvidos com alta qualidade. Foi constatado, por meio de um mapeamento sistemático, que existem poucos estudos relacionando essas duas áreas de modo que uma possa contribuir para a outra, principalmente em arquiteturas de referência e teste de software. Esse projeto tem por objetivo estender o modelo para arquiteturas de referência (RAModel), para que arquiteturas de referência sejam estabelecidas com informações de teste de software. Assim, além de promover padronização, uniformização e reúso a informações relacionadas a arquiteturas de software, promove-se também o reúso, a padronização e a uniformização das informações de teste de software no desenvolvimento das soluções para um dado domínio de aplicação. Para isso, elementos de teste relacionados ao planejamento de teste foram extraídos do TMMi e da norma ISO/IEC/IEEE 29119 e inseridos no RAModel, definindo, assim, o RAModelT . Dessa forma, a atividade de teste é incorporada aos estágios iniciais do desenvolvimento de software. Um estudo de viabilidade realizado para avaliar a extensão do RAModelT e um exemplo de aplicação são apresentados.
2022-12-06T14:47:11Z
Nilton Mendes de Souza
Geração de testes a partir de máquinas de estados finitos estendidas extraídas de diagramas de sequência UML
A eficiência e eficácia do Teste Baseado em Modelo (TBM) se deve principalmente ao seu potencial para automação. Se o modelo for formal e baseado em Máquinas de Transição de Estados, os casos de teste podem ser derivados automaticamente. Uma das técnicas de modelagem formal mais utilizada é a interpretação de um sistema como uma Máquina de Estados Finitos Estendida (MEFE), porém, não é uma prática comum na indústria a utilização de modelos formais, já que os desenvolvedores tem dificuldades de lidar com os conceitos envolvidos. Por outro lado, a Unified Modeling Language (UML) tornou-se o padrão de fato para modelagem de software. No entanto, devido à falta de semântica formal da UML, seus diagramas podem gerar inconsistências e receber interpretações ambíguas. Dessa forma, os modelos UML não são adequados para automação de teste. Neste contexto, esta tese de doutorado apresenta um procedimento sistemático nomeado de TestSd2Efsm para geração de um ambiente de testes a partir de modelos UML que usa conceitos da MDA (Model Driven Architecture) para formalizar Diagramas de Sequência UML em Máquinas de Estados Finitos Estendidas e fornecer uma semântica precisa para esse modelo UML. O procedimento sistemático também aplica a biblioteca ModelJUnit para geração de casos de teste abstratos e um conjunto de métricas para avaliá-los. Além disso, utiliza o framework JUnit para concretizar os casos de teste na linguagem de programação Java. Foi realizado um estudo experimental para avaliar a eficiência, eficácia e qualidade do procedimento sistemático TestSd2Efsm. Os resultados do experimento mostraram que o custo medido em tempo para geração de um ambiente de teste utilizando o procedimento sistemático TestSd2Efsm é menor que o esforço utilizando a abordagem manual e os casos de teste gerados pelo procedimento sistemático TestSd2Efsm são mais eficazes que os gerados pela abordagem manual. Além disso, a percepção dos participantes do experimento é que a qualidade da geração do ambiente de teste pelo procedimento sistemático TestSd2Efsm é maior que a qualidade utilizando a abordagem manual.
2022-12-06T14:47:11Z
Mauricio Rêgo Mota da Rocha
Unusual Event Detection in Surveillance Videos
Presently, surveillance cameras have been massively employed to monitor public spaces such as malls, train stations and airports. The video feed generated by several of these security cameras is monitored, in real-time, by a small group of people in a control room to detect anomalous behaviors. Nonetheless, human monitoring is extremely ineffective when it comes to detecting anomalies in surveillance footage, mainly because such task is both tedious (most of the time nothing interesting/abnormal happens) and challenging (a single person is in responsible for keeping track of multiple cameras at the same time). The aforementioned problems motivated the machine vision community to develop automated methods for detecting unusual behaviors in security videos. Despite recent advances in this area, we have noticed that current video anomaly detection methods have some gaps regarding: i) the lack of noise removal/management techniques when modeling motion patterns using optical-flow estimates; and ii) the need for a more adaptive approach to tackle changes in viewing distances. Motivated by those issues, we proposed some methods/studies aiming at improving anomaly detection in surveillance videos, while maintaining (or reducing) computational cost. Our experiments show that employing lightweight filtering to optical-flow estimates and anomaly scores can significantly improve anomaly detection performance in surveillance scenarios, without increasing computational complexity. Furthermore, we presented an automatic method to estimate changes in object size caused by variations in viewing changes, which is capable of improving anomaly detection performance and reducing setup time. Based on those findings, we designed an anomaly detection method that is capable to achieve state-of-the-art anomaly detection performance in challenging surveillance scenarios employing only optical-flow information. Additionally, we showed that a domain-specific auto-encoder is capable of achieving comparable anomaly detection results to the ones of features from pre-trained CNN models, while having a significant lower computational complexity (smaller number of network parameters).
2022-12-06T14:47:11Z
Tiago Santana de Nazaré
Using complex networks and Deep Learning to model and learn context
The structure of language is strongly influenced by the context, whether it is the social setting, of discourse (spoken and written) or the context of words itself. This fact allowed the creation of several techniques of Natural Language Processing (NLP) that take advantage of this information to tackle a myriad of tasks, including machine translation, summarization and classification of texts. However, in most of these applications, the context has been approached only as a source of information and not as an element to be explored and modeled. In this thesis, we explore the context on a deeper level, bringing new representations and methodologies. Throughout the thesis, we considered context as an important element that must be modeled in order to better perform NLP tasks. We demonstrated how complex networks can be used both to represent and learn context information while performing word sense disambiguation. In addition, we proposed a context modeling approach that combines word embeddings and a network representation, this approach allowed the induction of senses in an unsupervised way using community detection methods. Using this representation we further explored its application in text classification, we expanded the approach to allow the extraction of text features based on the semantic flow, which were later used in a supervised classifier trained to discriminate texts by genre and publication date. The studies carried out in this thesis demonstrate that context modeling is important given the interdependence between language and context, and that it can bring benefits for different NLP tasks. The framework proposed, both for modeling and textual feature extraction can be further used to explore other aspects and mechanisms of language.
2022-12-06T14:47:11Z
Edilson Anselmo Corrêa Júnior
Um framework baseado em blockchain para preservar a privacidade no compartilhamento de dados de saúde
O compartilhamento de dados de saúde para pesquisa contribui para gerar novos conhecimentos. Na pandemia do novo coronavírus, sua importância é ressaltada, pois, pesquisadores de todo o mundo trocam informações para contribuir na busca de uma vacina efetiva contra o vírus. A blockchain pode auxiliar no compartilhamento de dados de saúde, reduzindo riscos a fraudes, a partir das características como imutabilidade, não repúdio e confiabilidade. No entanto, as organizações de saúde ainda estão suscetíveis a vazamento, falhas e ataques cibernéticos. Entre os ataques sofridos, um deles é o ataque de re-identificação que tem o propósito de associar registros públicos dos usuários, de modo a encontrar padrões para descobrir a identidade deles. Sistemas de saúde baseados em blockchain também estão passíveis a ataques de re-identificação. Portanto, esta pesquisa tem como suposições: (i) a adição de técnicas de anonimização ao blockchain podem mitigar riscos à privacidade dos usuários; (ii) a utilização de um token (valor hash que é utilizado como chave para auditoria no blockchain) pode auxiliar no rastreamento dos ativos compartilhados. Esta pesquisa tem o objetivo de desenvolver um framework blockchain com o Hyperledger Fabric para preservar a privacidade no compartilhamento de dados de saúde. Em vista disso, foram empregados os métodos de anonimização K-Anonimato e Privacidade Diferencial para compô-lo e mitigar problemas à privacidade. Além disso, este trabalho elaborou um estudo piloto para o compartilhamento de imagens médicas frente a ataques de re-identificação. Os resultados revelam um aumento nas despesas para a rede e hardware dos sistemas de saúde, quando utilizam o framework proposto, devido ao custo gerado pelo blockchain e pelos modelos de privacidade. No entanto, as despesas são justificáveis, uma vez que, o framework acresce aos sistemas de saúde em propriedades como não repúdio, confiabilidade e privacidade. As análises da privacidade, que foram estatísticas e para as funções de probabilidade, revelam que o comportamento de ambos os métodos apresentam baixa probabilidade da identificação de registros similares, expressa pela métrica entropia. Todo o código relativo ao framework pode ser encontrado em: <https://github.com/eriksonJAguiar/bcpshield-framework>.
2022-12-06T14:47:11Z
Erikson Júlio de Aguiar
Técnicas de combinação para agrupamento centralizado e distribuído de dados
A grande quantidade de dados gerada em diversas áreas do conhecimento cria a necessidade do desenvolvimento de técnicas de mineração de dados cada vez mais eficientes e eficazes. Técnicas de agrupamento têm sido utilizadas com sucesso em várias áreas, especialmente naquelas em que não há conhecimento prévio sobre a organização dos dados. Contudo, a utilização de diferentes algoritmos de agrupamento, ou variações de um mesmo algoritmo, pode gerar uma ampla variedade de resultados. Tamanha variedade cria a necessidade de métodos para avaliar e selecionar bons resultados. Uma forma de avaliar esses resultados consiste em utilizar índices de validação de agrupamentos. Entretanto, uma grande diversidade de índices de validação foi proposta na literatura, o que torna a escolha de um único índice de validação uma tarefa penosa caso os desempenhos dos índices comparados sejam desconhecidos para a classe de problemas de interesse. Com a finalidade de obter um consenso entre resultados, é possível combinar um conjunto de agrupamentos ou índices de validação em uma única solução final. Combinações de agrupamentos (clustering ensembles) foram bem sucedidas em obter soluções robustas a variações no cenário de aplicação, o que faz do uso de comitês de agrupamentos uma alternativa interessante para encontrar soluções de qualidade razoável, segundo diferentes índices de validação. Adicionalmente, utilizar uma combinação de índices de validação pode tornar a avaliação de agrupamentos mais completa, uma vez que uma maioria dos índices combinados pode compensar o fraco desempenho do restante. Em alguns casos, não é possível lidar com um único conjunto de dados centralizado, por razões físicas ou questões de privacidade, o que gera a necessidade de distribuir o processo de mineração. Combinações de agrupamentos também podem ser estendidas para problemas de agrupamento de dados distribuídos, uma vez que informações sobre os dados, oriundas de diferentes fontes, podem ser combinadas em uma única solução global. O principal objetivo desse trabalho consiste em investigar técnicas de combinação de agrupamentos e de índices de validação aplicadas na seleção de agrupamentos para combinação e na mineração distribuída de dados. Adicionalmente, algoritmos evolutivos de agrupamento são estudados com a finalidade de selecionar soluções de qualidade dentre os resultados obtidos. As técnicas desenvolvidas possuem complexidade computacional reduzida e escalabilidade, o que permite sua aplicação em grandes conjuntos de dados ou cenários em que os dados encontram-se distribuídos
2022-12-06T14:47:11Z
Murilo Coelho Naldi
Segmentação de imagens baseada em redes complexas e superpixels: uma aplicação ao censo de aves
Uma das etapas mais importantes da análise de imagens e, que conta com uma enorme quantidade de aplicações, é a segmentação. No entanto, uma boa parte das técnicas tradicionais apresenta alto custo computacional, dificultando sua aplicação em imagens de alta resolução como, por exemplo, as imagens de ninhais de aves do Pantanal que também serão analisadas neste trabalho. Diante disso, é proposta uma nova abordagem de segmentação que combina algoritmos de detecção de comunidades, pertencentes à teoria das redes complexas, com técnicas de extração de superpixels. Tal abordagem é capaz de segmentar imagens de alta resolução mantendo o compromisso entre acurácia e tempo de processamento. Além disso, como as imagens de ninhais analisadas apresentam características peculiares que podem ser mais bem tratadas por técnicas de segmentação por textura, a técnica baseada em Markov Random Fields (MRF) é proposta, como um complemento à abordagem de segmentação inicial, para realizar a identificação final das aves. Por fim, devido à importância de avaliar quantitativamente a qualidade das segmentações obtidas, um nova métrica de avaliação baseada em ground-truth foi desenvolvida, sendo de grande importância para a área. Este trabalho contribuiu para o avanço do estado da arte das técnicas de segmentação de imagens de alta resolução, aprimorando e desenvolvendo métodos baseados na combinação de redes complexas com superpixels, os quais alcançaram resultados satisfatórios com baixo tempo de processamento. Além disso, uma importante contribuição referente ao censo demográfico de aves por meio da análise de imagens aéreas de ninhais foi viabilizada por meio da aplicação da técnica de segmentação MRF.
2022-12-06T14:47:11Z
Glenda Michele Botelho
Exploração de métodos de sumarização automática multidocumento com base em conhecimento semântico-discursivo
A sumarização automática multidocumento visa à produção de um sumário a partir de um conjunto de textos relacionados, para ser utilizado por um usuário particular e/ou para determinada tarefa. Com o crescimento exponencial das informações disponíveis e a necessidade das pessoas obterem a informação em um curto espaço de tempo, a tarefa de sumarização automática tem recebido muita atenção nos últimos tempos. Sabe-se que em um conjunto de textos relacionados existem informações redundantes, contraditórias e complementares, que representam os fenômenos multidocumento. Em cada texto-fonte, o assunto principal é descrito em uma sequência de subtópicos. Além disso, as sentenças de um texto-fonte possuem graus de relevância diferentes. Nesse contexto, espera-se que um sumário multidocumento consista das informações relevantes que representem o total de textos do conjunto. No entanto, as estratégias de sumarização automática multidocumento adotadas até o presente utilizam somente os relacionamentos entre textos e descartam a análise da estrutura textual de cada texto-fonte, resultando em sumários que são pouco representativos dos subtópicos textuais e menos informativos do que poderiam ser. A fim de tratar adequadamente a relevância das informações, os fenômenos multidocumento e a distribuição de subtópicos, neste trabalho de doutorado, investigou-se como modelar o processo de sumarização automática usando o conhecimento semântico-discursivo em métodos de seleção de conteúdo e o impacto disso para a produção de sumários mais informativos e representativos dos textos-fonte. Na formalização do conhecimento semântico-discursivo, foram utilizadas as teorias semântico-discursivas RST (Rhetorical Structure Theory) e CST (Cross-document Structure Theory). Para apoiar o trabalho, um córpus multidocumento foi anotado com RST e subtópicos, consistindo em um recurso disponível para outras pesquisas. A partir da análise de córpus, foram propostos 10 métodos de segmentação em subtópicos e 13 métodos inovadores de sumarização automática. A avaliação dos métodos de segmentação em subtópicos mostrou que existe uma forte relação entre a estrutura de subtópicos e a análise retórica de um texto. Quanto à avaliação dos métodos de sumarização automática, os resultados indicam que o uso do conhecimento semântico-discursivo em boas estratégias de seleção de conteúdo afeta positivamente a produção de sumários informativos.
2022-12-06T14:47:11Z
Paula Christina Figueira Cardoso
Diretrizes para Reengenharia de Software com Características de Software Legado
Este trabalho apresenta um conjunto de diretrizes que apóiam o processo de reengenharia de um sistema procedimental (escrito na linguagem Clipper) para um sistema orientado a objeto (escrito na linguagem Delphi). As diretrizes foram baseadas na experiência adquirida com a realização da reengenharia no sistema SAPES (um sistema que apóia o uso de um banco de dados bibliográfico pessoal na escrita de documentos). As diretrizes envolvem o método FUSION-RE/I, no passo de engenharia reversa, e a ferramenta FusionCASE, no passo de reconstrução.
2022-12-06T14:47:11Z
Marcos Antonio Quináia
Dentes Virtuais: Visualização para Apoio a Atividades Odontológias
Neste projeto de mestrado foi estudado um processo de geração de modelos tridimensionais de dentes a partir de dados reais. Foram elaborados e implementados um algoritmo para reconstrução 3D de dentes, e vários programas complementares para apoiar a reconstrução. Um modelo tridimensional é criado a partir de contornos planares que descrevem as estruturas de interesse, representados por polígonos extraídos de fatias ou cortes paralelos de um dente. O algoritmo foi implementado na forma de uma classe, em extensão a uma biblioteca de visualização de propósito geral, o VTK (Visualization Toolkit), com resultados bastante promissores.
2022-12-06T14:47:11Z
Milton Hirokazu Shimabukuro
Representação de Construtores Semânticos em SIRIUS e Suporte através de um Editor de Esquemas
Esta dissertação visa analisar os construtores de Modelos de Dados Orientado a Objetos, para verificar sua usuabilidade nas situações de utilização real em projetos de aplicações centradas em Bases de Dados. O trabalho aqui apresentado se finidamenta no modelo SlRIUS, um Modelo de Dados Orientado a Objetos, baseado em Abstrações de Dados. O desenvolvimento de SlRIUS utiliza como ponto de partida um metamodelo que permite representar, de maneira uniforme, os elementos essenciais de qualquer modelo de dados orientado a objetos. Seu desenvolvimento teve como objetivo atender às necessidades de suporte à construção de software para ambientes de projetos de engenharia. A representação gráfica dos elementos construtivos de um modelo de dados é um dos principais recursos que permitem registrar o conhecimento representado por uma modelagem. Para que um usuário possa elaborar e/ou utilizar uma modelagem, é necessário que essa representação gráfica seja clara, limpa, concisa e efetiva. Por outro lado, deve permitir que os conceitos de modelagem do modelo em si também sejam claramente expressos. Logo, para que este modelo possa ser uma ferramenta adequada para ser utilizada por projetistas, analistas e programadores de gerenciadores de Bases de Dados, é necessário que a notação diagramática do modelo priorize a intuitividade e a clareza, e não só o compromisso com a teoria que embasa o modelo. Para atender estas necessidades, este documento mostra uma nova representação, mais voltada para a modelagem de situações do mundo real, de fundamental importância para que um modelo possa ser aceito e realmente utilizado, e com isso incrementar sua utilidade prática. Conseqüentemente, alguns pontos do modelo foram validados e outros reformulados, acrescentando-se aspectos que não foram cobertos no modelo original. O texto apresenta também o editor E2SIRIUS, criado com o objetivo de servir tanto para edição de esquemas quanto para auxiliar no treinamento de projetistas nos conceitos do modelo.
2022-12-06T14:47:11Z
Myrian Renata Barros Araujo