Repositório RCAAP
Integrando técnicas de aprendizado de máquina para descoberta de conhecimento interpretável de prontuários eletrônicos de pacientes
Um desafio a ser superado na área de Aprendizado de Máquina (AM) é a capacidade dos modelos serem explicáveis e apresentarem um alto nível de interpretabilidade e transparência. É possível observar que grande parte dos métodos preocupam-se somente com métricas quantitativas, deixando de explorar a interpretabilidade dos resultados obtidos. Em algumas áreas, tal como a medicina, além da acurácia obtida pelos métodos computacionais é importante que os profissionais compreendam o porquê de uma decisão foi tomada. A importância dada à explicabilidade da decisão do método se justifica por se tratar de áreas críticas, onde uma decisão errada pode causar uma grande perda financeira, a privacidade ou a saúde. Ao encontro desse cenário um campo de pesquisa denominado Explainable Artificial Intelligence (XAI) tem surgido com interesse de desenvolver métodos que priorizam explicabilidade, tanto do funcionamento do modelo quanto da explicação das decisões indicadas. Portanto, este trabalho, tem por objetivo a criação de métodos capazes de extrair conhecimento em registros médicos eletrônicos priorizando a explicabilidade dos resultados obtidos. O primeiro método denominado Bag-of-Attributes Representation (BOAR) proporciona uma representação capaz de superar o problema de interoperabilidade de bases de dados médicas e servir como entrada para diversos algoritmos de agrupamento. Após o processo de descoberta de padrões por meio dos algoritmos de agrupamento, o segundo método Multilevel Clustering Explainer (MCE) tem como ideia principal reunir informações descritivas e visuais sobre a composição dos padrões encontrados, por meio da apresentação das variáveis que mais influenciaram na decisão do algoritmo. O MCE tem a flexibilidade de fornecer explicações em dois níveis: no global apresentando as principais características dos objetos que determinaram a formação de um determinado cluster e no local a influência considerando um único objeto. O MCE possui uma grande capacidade de modularização de seus parâmetros em relação a estrutura de funcionamento e de apresentação dos resultados, proporcionando ao profissional de saúde um melhor entendimento das informações e padrões encontrados.O MCE mostrou ser capaz de fornecer informações explicativas que permitem uma análise top-down na compreensão da composição, relacionamento e inconsistências dos clusters Neste trabalho. O MCE permitiu a compreensão de quais procedimentos médicos mais influenciaram para a caracterização de diferentes clusters.
2022-12-06T14:47:11Z
Jose Maria Clementino Junior
Visão artificial e morfometria na análise e classificação de espécies biológicas
A descoberta da história taxonômica e evolutiva das espécies é a principal fronteira das pesquisas científicas em diversas áreas do conhecimento. A biodiversidade dos indivíduos associada a grande variabilidade morfológica, torna essa tarefa um verdadeiro desafio. Os métodos tradicionais baseados na inspeção visual estão ultrapassados. Hoje em dia, os avanços tecnológicos têm colocado à disposição dos pesquisadores um arcabouço de ferramentas para o estudo das espécies. Este trabalho tem como objetivo investigar e desenvolver modelos computacionais capazes de analisar e classificar espécies biológicas por meio de características morfométricas. Para isso, técnicas de análise de imagens foram utilizadas para determinar a variabilidade das espécies em função de três informações de interesse: forma, estrutura tubular e textura. A potencialidade das metodologias foi avaliada por meio das seguintes espécies biológicas: maracujás silvestres do gênero Passiflora, eucaliptos do gênero Eucalyptus e arroz do gênero Oryza. Os experimentos produziram um conjunto de dados que representam uma detalhada descrição sobre a morfometria das espécies. Os resultados demonstraram que as técnicas de visão artificial são importantes para o estudo das espécies. As técnicas de análise de formas indicaram a viabilidade dessas metodologias na classificação das espécies, em particular, as redes complexas, a transformada de wavelets e a dimensão fractal multiescala que alcançaram altas taxas de classificações corretas. Os métodos desenvolvidos para análise de estruturas tubulares também demonstraram grande potencialidade na discriminação das espécies, principalmente a assinatura fractal multiescala a partir de pontos biométricos. As técnicas de análise de textura desenvolvidas também contribuíram para o estudo das espécies. Os resultados obtidos com as abordagens sinalizam que a relação entre biologia e computação é essencial para o desenvolvimento de metodologias eficientes. A inferência evolutiva das espécies foi um importante resultado obtido com os dados morfométricos, tanto a partir da forma, quanto da estrutura tubular e da textura. Testes estatísticos comprovaram a correlação entre os dados morfométricos obtidos por visão artificial e os dados moleculares de reconstrução filogenética. A multidisciplinaridade é o ponto central do trabalho, que está inserido na fronteira das áreas de visão artificial, morfometria e biologia. Com isso, essa simbiose resultou em promissoras contribuições para as áreas envolvidas
2022-12-06T14:47:11Z
Rodrigo de Oliveira Plotze
MPPI: um modelo de procedência para subsidiar processos de integração
A procedência dos dados consiste no conjunto de metadados que possibilita identificar as fontes e os processos de transformação aplicados aos dados, desde a criação até o estado atual desses dados. Existem diversas motivações para se incorporar a procedência ao processo de integração, tais como avaliar a qualidade dos dados das fontes heterogêneas, realizar processos de auditoria dos dados e de atribuição de autoria aos proprietários dos dados e reproduzir decisões de integração. Nesta dissertação é proposto o MPPI, um modelo de procedência para subsidiar processos de integração. O modelo enfoca sistemas nos quais as fontes de dados podem ser atualizadas somente pelos seus proprietários, impossibilitando que a integração retifique eventuais conflitos de dados diretamente nessas fontes. O principal requisito do MPPI é que ele ofereça suporte ao tratamento de todas as decisões de integração realizadas em processos anteriores, de forma que essas decisões possam ser reaplicadas automaticamente em processos de integração subsequentes. O modelo MPPI possui quatro características. A primeira delas consiste no mapeamento da procedência dos dados em operações de cópia, edição, inserção e remoção, e no armazenamento dessas operações em um repositório de operações. A segunda característica é o tratamento de operações de sobreposição, por meio da proposta das políticas blind, restrict, undo e redo. A terceira característica consiste na identificação de anomalias decorrentes do fato de que fontes de dados autônomas podem alterar os seus dados entre processos de integração, e na proposta de quatro tipos de validação das operações frente a essas anomalias: validação completa, da origem, do destino, ou nenhuma. A quarta característica consiste na reaplicação de operações, por meio da proposta dos métodos VRS (do inglês Validate and Reapply in Separate) e VRT (do inglês Validate and Reapply in Tandem) e da reordenação segura do repositório, os quais garantem que todas as decisões de integração tomadas pelo usuário em processos de integração anteriores sejam resolvidas automaticamente e da mesma forma em processos de integração subsequentes. A validação do modelo MPPI foi realizada por meio de testes de desempenho que investigaram o tratamento de operações de sobreposição, o método VRT e a reordenação segura, considerando como base as demais características do modelo. Os resultados obtidos mostraram a viabilidade de implementação das políticas propostas para tratamento de operações de sobreposição em sistemas de integração reais. Os resultados também mostraram que o método VRT proporcionou ganhos de desempenho significativos frente à coleta quando o objetivo é restabelecer resultados de processos de integração que já foram executados pelo menos uma vez. O ganho médio de desempenho do método VRT foi de pelo menos 93%. Ademais, os testes também mostraram que reordenar as operações antes da reaplicação pode melhorar ainda mais o desempenho do método VRT
2022-12-06T14:47:11Z
Bruno Tomazela
Uma ferramenta geradora de código Bluespec SystemVerilog a partir de máquina de estados finitos descrita em UML e C
O contínuo avanço da capacidade dos circuitos integrados e a necessidade de sistemas embarcados cada vez mais complexos para lidar com os problemas atuais, com prazos cada vez mais curtos, estão direcionando o desenvolvimento de sistemas de circuitos integrados para ambientes de alto nível de abstração cada vez mais distantes dos detalhes de hardware. O uso de linguagens de alto nível para auxiliar o desenvolvimento de sistemas embarcados é uma tendência atual pois tal abordagem tende a reduzir a complexidade e o tempo de desenvolvimento. Este trabalho propõe o desenvolvimento de uma nova ferramenta para geração de arquiteturas de hardware em Bluespec em um ambiente gráfico utilizando diagramas da UML. Esta ferramenta permite que o projetista descreva o comportamento utilizando máquina de estados finita no padrão UML 2.0, onde cada estado pode conter a codificação do comportamento com as linguagens Bluespec e C. Dada uma máquina de estados, a mesma é traduzida para a linguagem Bluespec por meio de um compilador e templates. Como resultado, é apresentado a geração de duas arquiteturas de hardware a fim de demonstrar as vantagens e limitações da ferramenta desenvolvida
2022-12-06T14:47:11Z
Sergio Henrique Moraes Durand
Processamento de consultas por similaridade em imagens médicas visando à recuperação perceptual guiada pelo usuário
O aumento da geração e do intercâmbio de imagens médicas digitais tem incentivado profissionais da computação a criarem ferramentas para manipulação, armazenamento e busca por similaridade dessas imagens. As ferramentas de recuperação de imagens por conteúdo, foco desse trabalho, têm a função de auxiliar na tomada de decisão e na prática da medicina baseada em estudo de casos semelhantes. Porém, seus principais obstáculos são conseguir uma rápida recuperação de imagens armazenadas em grandes bases e reduzir o gap semântico, caracterizado pela divergência entre o resultado obtido pelo computador e aquele esperado pelo médico. No presente trabalho, uma análise das funções de distância e dos descritores computacionais de características está sendo realizada com o objetivo de encontrar uma aproximação eficiente entre os métodos de extração de características de baixo nível e os parâmetros de percepção do médico (de alto nível) envolvidos na análise de imagens. O trabalho de integração desses três elementos (Extratores de Características, Função de Distância e Parâmetro Perceptual) resultou na criação de operadores de similaridade, que podem ser utilizados para aproximar o sistema computacional ao usuário final, visto que serão recuperadas imagens de acordo com a percepção de similaridade do médico, usuário final do sistema
2022-12-06T14:47:11Z
Marcelo Ponciano da Silva
Desempenho em ambiente Web considerando diferenciação de serviços (QoS) em cache, rede e servidor: modelagem e simulação
Esta tese de doutorado apresenta a investigação de alternativas para melhorar o desempenho de ambientes Web, avaliando o impacto da utilização de mecanismos de diferenciação de serviços em todos os pontos do sistema. Foram criados e modelados no OPNET Modeler cenários com diferentes configurações voltadas tanto para a diferenciação de serviços, quanto para o congestionamento da rede. Foi implementado um servidor cache com suporte à diferenciação de serviços (cache CDF), que constitui uma contribuição dentro deste trabalho, complementando o cenário de diferenciação de serviços de forma positiva, assegurando que os ganhos obtidos em outras etapas do sistema não sejam perdidos no momento da utilização do cache. Os principais resultados obtidos mostram que a diferenciação de serviços introduzida de forma isolada em partes do sistema, pode não gerar os ganhos de desempenho desejados. Todos os equipamentos considerados nos cenários propostos possuem características reais e os modelos utilizados no OPNET foram avaliados e validados pelos seus fabricantes. Assim, os modelos que implementam os cenários considerados constituem também uma contribuição importante deste trabalho, uma vez que o estudo apresentado não se restringe a uma modelagem teórica, ao contrário, aborda aspectos bem próximos da realidade, constituindo um possível suporte de gerenciamento de sistemas Web
2022-12-06T14:47:11Z
Iran Calixto Abrão
Um algoritmo evolutivo para o problema de dimensionamento de lotes em fundições de mercado
Segundo uma pesquisa recente realizada junto ao setor de fundições, uma importante preocupação do setor é melhorar seu planejamento de produção. Um plano de produção em uma fundição envolve duas etapas interdependentes: a determinação das ligas a serem fundidas e dos lotes que serão produzidos. Neste trabalho, estudamos o problema de dimensionamento de lotes para fundições de pequeno porte, cujo objetivo é determinar um plano de produção de mínimo custo. Como sugerido na literatura, a heurística proposta trata as etapas do problema de forma hierárquica: inicialmente são definidas as ligas e, posteriormente, os lotes que são produzidos a partir delas. Para a solução do problema, propomos um algoritmo genético que explora um conjunto de possibilidades para a determinação das ligas e utiliza uma heurística baseada em relaxação lagrangiana para determinação dos itens a serem produzidos. Além disso, uma abordagem para o mesmo problema é proposta utilizando o problema da mochila para determinar os itens a serem produzidos. Bons resultados foram obtidos pelos métodos propostos
2022-12-06T14:47:11Z
Victor Claudio Bento de Camargo
AGIRA - Um processo ágil de desenvolvimento de software baseado em arquiteturas de referência
A área de pesquisa de Arquitetura de Software tem recebido cada vez mais atenção dentro da Engenharia de Software, visto que arquiteturas de software têm tido papel determinante para a qualidade de sistemas de software. Nesse contexto, arquiteturas de referência surgiram como um tipo especial de arquitetura que provê diretrizes para construção de arquiteturas de software de uma dada classe de sistemas, promovendo também o reúso do conhecimento sobre um dado domínio de aplicação. Considerando sua relevância, arquiteturas de referência têm sido propostas e utilizadas com sucesso em diferentes domínios. Em outra perspectiva, a indústria de software tem cada vez mais adotado métodos ágeis de desenvolvimento de software, visando, entre outros aspectos, diminuir o tempo de entrega de seus produtos. De um modo geral, esses métodos têm como característica comum ciclos curtos de produção e entrega no desenvolvimento de software. Consequentemente, minimizam a quantidade de documentação gerada no processo. Dessa forma, parece ser conflitante a adoção de arquiteturas de referência no contexto de métodos ágeis. No entanto, iniciativas já podem ser encontradas, apesar de haver uma carência de trabalhos que propõem a utilização de ambas de forma integrada. Dessa forma, o principal objetivo desse projeto de mestrado foi o estabelecimento um processo ágil de desenvolvimento de software, denominado AGIRA, que explora as vantagens do uso de arquiteturas de referência. A avaliação de tal processo foi realizada em duas frentes. A primeira foi por meio da condução de um action case com alunos de uma disciplina de Arquitetura de Software da Universidade de Bolzano. A segunda frente foi conduzida através de um questionário com especialistas da indústria. Resultados alcançados mostram que o AGIRA tem potencial para ser utilizado pela indústria e que, dessa forma, arquiteturas de referência podem ser aplicadas juntamente com métodos ágeis
2022-12-06T14:47:11Z
Vinícius Augusto Tagliatti Zani
Indução de filtros lingüisticamente motivados na recuperação de informação
Apesar dos processos de recuperação e filtragem de informação sempre terem usado técnicas básicas de Processamento de Linguagem Natural (PLN) no suporte à estruturação de documentos, ainda são poucas as indicações sobre os avanços relacionados à utilização de técnicas mais sofisticadas de PLN que justifiquem o custo de sua utilização nestes processos, em comparação com as abordagens tradicionais. Este trabalho investiga algumas evidências que fundamentam a hipótese de que a aplicação de métodos que utilizam conhecimento linguístico é viável, demarcando importantes contribuições para o aumento de sua eficiência em adição aos métodos estatásticos tradicionais. É proposto um modelo de representação de texto fundamentado em sintagmas nominais, cuja representatividade de seus descritores é calculada utilizando-se o conceito de evidência, apoiado em métodos estatísticos. Filtros induzidos a partir desse modelo são utilizados para classificar os documentos recuperados analisando-se a relevância implícita no perfil do usuário. O aumento da precisão (e, portanto, da eficácia) em sistemas de Recuperação de Informação, conseqüência da pós-filtragem seletiva de informações, demonstra uma clara evidência de como o uso de técnicas de PLN pode auxiliar a categorização de textos, abrindo reais possibilidades para o aprimoramento do modelo apresentado
2022-12-06T14:47:11Z
João Marcelo Azevedo Arcoverde
Métodos adaptativos de segmentação aplicados à recuperação de imagens por conteúdo
A possibilidade de armazenamento de imagens no formato digital favoreceu a evolução de diversos ramos de atividades, especialmente as áreas de pesquisa e clínica médica. Ao mesmo tempo, o volume crescente de imagens armazenadas deu origem a um problema de relevância e complexidade consideráveis: a Recuperação de Imagens Baseada em Conteúdo, que, em outras palavras, diz respeito à capacidade de um sistema de armazenamento processar operações de consulta de imagens a partir de características visuais, extraídas automaticamente por meio de métodos computacionais. Das principais questões que constituem este problema, amplamente conhecido pelo termo CBIR - Content-Based Image Retrieval, fazem parte as seguintes: Como interpretar ou representar matematicamente o conteúdo de uma imagem? Quais medidas que podem caracterizar adequadamente este conteúdo? Como recuperar imagens de um grande repositório utilizando o conteúdo extraído? Como estabelecer um critério matemático de similaridade entre estas imagens? O trabalho desenvolvido e apresentado nesta tese busca, exatamente, responder perguntas deste tipo, especialmente para os domínios de imagens médicas e da biologia genética, onde a demanda por sistemas computacionais que incorporam técnicas CBIR é consideravelmente alta por diversos motivos. Motivos que vão desde a necessidade de se buscar informação visual que estava até então inacessível pela falta de anotações textuais, até o interesse em poder contar com auxílio computacional confiável para a importante tarefa de diagnóstico clínico. Neste trabalho são propostos métodos e soluções inovadoras para o problema de segmentação e extração de características de imagens médicas e imagens de padrões espaciais de expressão genética. A segmentação é o processo de delimitação automático de regiões de interesse da imagem que possibilita uma caracterização bem mais coerente do conteúdo visual, comparado com as tradicionais técnicas de caracterização global e direta da imagem. Partindo desta idéia, as técnicas de extração de características desenvolvidas neste trabalho empregam métodos adaptativos de segmentação de imagens e alcançam resultados excelentes na tarefa de recuperação baseada em conteúdo
2022-12-06T14:47:11Z
André Guilherme Ribeiro Balan
Arquitetura híbrida inteligente para navegação autônoma de robôs
Este projeto consiste em um sistema de navegação autônomo baseado em redes neurais nebulosas modulares capacitando o robô a alcançar alvos, ou pontos metas, em ambientes desconhecidos. Inicialmente, o sistema não tem habilidade para a navegação, após uma fase de experimentos com algumas colisões, o mecanismo de navegação aprimora-se guiando o robô ao alvo de forma eficiente. Uma arquitetura híbrida inteligente é apresentada para este sistema de navegação, baseada em redes neurais artificiais e lógica nebulosa. A arquitetura é hierárquica e costitiui-se de dois módulos responsáveis por gerar comportamentos inatos de desvio de obstáculos e de busca ao alvo. Um mecanismo de aprendizagem por reforço, baseada em uma extensão da lei de Hebb, pondera os comportamentos inatos conflitantes ajustando os pesos sinápticos das redes neurais nos instantes de captura do alvo e de colisão contra obstáculos. A abordagem consolidada em simulação é validada em ambientes reais neste trabalho. Para tanto, este sistema foi implementado e testado no simulador Saphira, ambiente de simulação que acompanha o robô Pioneer I e que denota um estágio anterior aos testes em ambientes reais por apresentar comportamentos do robô similares aos comportamentos do robô móvel. Modificações na arquitetura híbrida foram necessárias para adaptar o sistema de navegação simulado ao sistema incorporado no Pioneer I. Experimentos em ambientes reais demonstraram a eficiência e a capacidade de aprendizagem do sistema de navegação, validando a arquitetura híbrida inteligente para aplicação em robôs móveis
2022-12-06T14:47:11Z
Rodrigo Calvo
Inferência em um modelo com erros de medição heteroscedásticos com observações replicadas
Modelos com erros de medição têm recebido a atenção de vários pesquisadores das mais diversas áreas de conhecimento. O principal objetivo desta dissertação consiste no estudo de um modelo funcional com erros de medição heteroscedásticos na presença de réplicas das observações. O modelo proposto estende resultados encontrados na literatura na medida em que as réplicas são parte do modelo, ao contrário de serem utilizadas para estimação das variâncias, doravante tratadas como conhecidas. Alguns procedimentos de estimação tais como o método de máxima verossimilhança, o método dos momentos e o método de extrapolação da simulação (SIMEX) na versão empírica são apresentados. Além disso, propõe-se o teste da razão de verossimilhanças e o teste de Wald com o objetivo de testar algumas hipóteses de interesse relacionadas aos parâmetros do modelo adotado. O comportamento dos estimadores de alguns parâmetros e das estatísticas propostas (resultados assintóticos) são analisados por meio de um estudo de simulação de Monte Carlo, utilizando-se diferentes números de réplicas. Por fim, a proposta é exemplificada com um conjunto de dados reais. Toda parte computacional foi desenvolvida em linguagem R (R Development Core Team, 2011)
2022-12-06T14:47:11Z
Willian Luís de Oliveira
Automatização do teste estrutural de software de veículos autônomos para apoio ao teste de campo
Veículo autônomo inteligente (ou apenas veículo autônomo VA) é um tipo de sistema embarcado que integra componentes físicos (hardware) e computacionais (software). Sua principal característica é a capacidade de locomoção e de operação de modo semi ou completamente autônomo. A autonomia cresce com a capacidade de percepção e de deslocamento no ambiente, robustez e capacidade de resolver e executar tarefas lidando com as mais diversas situações (inteligência). Veículos autônomos representam um tópico de pesquisa importante e que tem impacto direto na sociedade. No entanto, à medida que esse campo avança alguns problemas secundários aparecem como, por exemplo, como saber se esses sistemas foram suficientemente testados. Uma das fases do teste de um VA é o teste de campo, em que o veículo é levado para um ambiente pouco controlado e deve executar livremente a missão para a qual foi programado. Ele é geralmente utilizado para garantir que os veículos autônomos mostrem o comportamento desejado, mas nenhuma informação sobre a estrutura do código é utilizada. Pode ocorrer que o veículo (hardware e software) passou no teste de campo, mas trechos importantes do código nunca tenham sido executados. Durante o teste de campo, os dados de entrada são coletados em logs que podem ser posteriormente analisados para avaliar os resultados do teste e para realizar outros tipos de teste offline. Esta tese apresenta um conjunto de propostas para apoiar a análise do teste de campo do ponto de vista do teste estrutural. A abordagem é composta por um modelo de classes no contexto do teste de campo, uma ferramenta que implementa esse modelo e um algoritmo genético para geração de dados de teste. Apresenta também heurísticas para reduzir o conjunto de dados contidos em um log sem diminuir substancialmente a cobertura obtida e estratégias de combinação e mutação que são usadas no algoritmo. Estudos de caso foram conduzidos para avaliar as heurísticas e estratégias e são também apresentados e discutidos.
2022-12-06T14:47:11Z
Vânia de Oliveira Neves
Visualização de similaridades em bases de dados de música
Coleções de músicas estão amplamente disponíveis na internet e, graças ao crescimento na capacidade de armazenamento e velocidade de transmissão de dados, usuários podem ter acesso a uma quantidade quase ilimitada de composições. Isso levou a uma maior necessidade de organizar, recuperar e processar dados musicais de modo automático. Visualização de informação é uma área de pesquisa que possibilita a análise visual de grandes conjuntos de dados e, por isso, é uma ferramenta muito valiosa para a exploração de bibliotecas musicais. Nesta dissertação, metodologias para a construção de duas técnicas de visualização de bases de dados de música são propostas. A primeira, Grafo de Similaridades, permite a exploração da base de dados em termos de similaridades hierárquicas. A segunda, RadViz Concêntrico, representa os dados em termos de tarefas de classificação e permite que o usuário altere a visualização de acordo com seus interesses. Ambas as técnicas são capazes de revelar estruturas de interesse no conjunto de dados, facilitando o seu entendimento e exploração.
2022-12-06T14:47:11Z
Jorge Henrique Piazentin Ono
Modelação matemática de contatos lubrificados micro-texturizados
No desenho de mecanismos lubrificados, tais como Mancais hidrodinâmicos ou anéis de pistões de Motores a Combustão, atrito e desgaste são efeitos não desejados. Por exemplo, é sabido que aproximadamente 5% da energia perdida em um motor a combustão esta associada ao atrito presente no sistema de anéis/cilindro do pistão. Após vários trabalhos experimentais e teóricos, as superfícies texturizadas hão mostrado serem capazes de reduzir o atrito em algumas condições de funcionamento. O estudo da relação entre o atrito e os parâmetros de texturização é um problema difícil e de interesse tanto industrial como acadêmico. O contexto matemático e computacional destes trabalhos apresentam desafios por si mesmos, como o estudo da boa colocação dos modelos matemáticos, a consideração adequada das descontinuidades das superfícies. Este trabalho enfoca-se no contexto matemático, apresentando e estudando a equação de Reynolds junto com diferentes modelos de cavitação que podem encontrar-se na literatura. Começamos estudando a matemática da equação de Reynolds. Depois disso, modelos de cavitação são inclusos, aumentando a complexidade da matemática envolvida. Seguidamente, como aplicação da teoria apresentada, um rolamento deslizante será estudado junto com uma texturização da superfície móvel. Os resultados deste estudo revelam mecanismos básicos de redução de atrito e propriedades gerais que não haviam sido reportadas anteriormente. Possíveis trabalhos futuros são apresentados, tal como o uso de Métodos Descontínuos de Galerkin em vez dos Métodos de Volumes Finitos. O último em procura de uma melhor acomodação da formulação matemática, tentando melhorar a flexibilidade da malha e a precisão.
2022-12-06T14:47:11Z
Alfredo Del Carmen Jaramillo Palma
Use of meta-learning for hyperparameter tuning of classification problems
Machine learning solutions have been successfully used to solve many simple and complex problems. However, their development process still relies on human experts to perform tasks such as data preprocessing, feature engineering and model selection. As the complexity of these tasks increases, so does the demand for automated solutions, namely Automated Machine Learning (AutoML). Most algorithms employed in these systems have hyperparameters whose configuration may directly affect their predictive performance. Therefore, hyperparameter tuning is a recurring task in AutoML systems. This thesis investigated how to efficiently automate hyperparameter tuning by means of Meta-learning. To this end, large-scale experiments were performed tuning the hyperparameters of different classification algorithms, and an enhanced experimental methodology was adopted throughout the thesis to explore and learn the hyperparameter profiles for different classification algorithms. The results also showed that in many cases the default hyperparameter settings induced models that are on par with those obtained by tuning. Hence, a new Meta-learning recommender system was proposed to identify when it is better to use default values and when to tune classification algorithms for each new dataset. The proposed system is capable of generalizing several learning processes into a single modular framework, along with the possibility of assigning different algorithms. Furthermore, a descriptive analysis of model predictions is used to identify which data characteristics affect the necessity for tuning in each one of the algorithms investigated in the thesis. Experimental results also demonstrated that the proposed recommender system reduced the time spent on optimization processes, without reducing the predictive performance of the induced models. Depending on the target algorithm, the Meta-learning recommender system can statistically outperform the baselines. The significance of these results opens a number of new avenues for future work.
2022-12-06T14:47:11Z
Rafael Gomes Mantovani
Graph signal processing for visual analysis and data exploration
Signal processing is used in a wide variety of applications, ranging from digital image processing to biomedicine. Recently, some tools from signal processing have been extended to the context of graphs, allowing its use on irregular domains. Among others, the Fourier Transform and the Wavelet Transform have been adapted to such context. Graph signal processing (GSP) is a new field with many potential applications on data exploration. In this dissertation we show how tools from graph signal processing can be used for visual analysis. Specifically, we proposed a data filtering method, based on spectral graph filtering, that led to high quality visualizations which were attested qualitatively and quantitatively. On the other hand, we relied on the graph wavelet transform to enable the visual analysis of massive time-varying data revealing interesting phenomena and events. The proposed applications of GSP to visually analyze data are a first step towards incorporating the use of this theory into information visualization methods. Many possibilities from GSP can be explored by improving the understanding of static and time-varying phenomena that are yet to be uncovered.
2022-12-06T14:47:11Z
Paola Tatiana Llerena Valdivia
Computational methods in Biology: cancer biomarkers, protein networks and lateral gene transfer
Molecular Biology is a branch within Science of great importance. Despite the fact it studies microscopic entities, the volume and complexity of information are great. The applications are varied and can be of global interest, such as the spread of antibiotic resistance genes among bacteria and new methods for diagnostic and prognostic of cancer. By understanding biomolecular mechanisms, scientists can define treatments for diseases, support the decisions made by patients, identify the influence of intestinal microbiota over physical and psychological conditions, find cause and source of microbial antibiotic resistance, among many other applications. Computer Science plays key roles in this context, such as enabling complex data analyzes by specialists, creating models that simulate biological structures and processes, and by providing algorithms for extracting information encoded in biological data. During my doctorate, we explored those mechanisms in three main levels: quantification of proteins from cells, analysis of interactions that happen inside cells, and the comparison of genomes and their genetic history. This manuscript reports different projects, four of them already published in scientific journals. They comprise the discovery of candidate proteins for cancer biomarkers, the visual analysis of protein-protein interaction networks and the visual analysis of lateral gene transfer in bacterial phylogenetic trees. Here, we explain these projects and the main findings associated with the use of computational methods. Among the results are the evaluation of stability of ranking and signature methods applied to discovery proteomics data, a new approach to select candidate proteins from discovery to targeted proteomics, lists of candidate biomarkers for oral cancer, and new techniques for the visualization of biological networks and phylogenetic supertrees.
2022-12-06T14:47:11Z
Henry Heberle
Unificando conceitos de avaliação de desempenho, engenharia de desempenho e teste de software para a análise de sistemas computacionais
Este projeto de mestrado apresenta uma visão de como áreas da Ciência da Computação relacionadas a desempenho (Avaliação de Desempenho, Engenharia de Desempenho de Software e Teste de Desempenho de Software) podem ser relacionas e também propõe uma metodologia de análise de desempenho que contém conceitos das áreas anteriormente apontadas, para que esta seja mais completa e possa ser compreendida por profissionais das três áreas. Para formalizar esse relacionamento, foi construída uma ontologia que mostra como ocorre a correlação entre as áreas, e a partir dessa metodologia proposta, foi possível analisar o desempenho da ferramenta ValiPar, em sua versão paralela e concluir que o principal gargalo com relação a escalabilidade dela é sua porção executada sequencialmente. Por fim, foi observado que a metodologia apresenta vantagens se comparada as demais, como uma formalização nas suas etapas de análise.
2022-12-06T14:47:11Z
Rafael de Souza Stabile
Classificador de kernels para mapeamento em plataforma de computação híbrida composta por FPGA e GPP
O aumento constante da demanda por sistemas computacionais cada vez mais eficientes tem motivado a busca por sistemas híbridos customizados compostos por GPP (General Purpose Processor), FPGAs (Field-Programmable Gate Array) e GPUs (Graphics Processing Units). Quando utilizados em conjunto possibilitam otimizar a relação entre desempenho e consumo de energia. Tais sistemas dependem de técnicas que façam o mapeamento mais adequado considerando o perfil do código fonte. Nesse sentido, este projeto propõe uma técnica para realizar o mapeamento entre GPP e FPGA. Para isso, utilizou-se como base uma abordagem de mineração de dados que avalia a similaridade entre código fonte. A técnica aqui desenvolvida obteve taxas de acertos de 65,67% para códigos sintetizados para FPGA com a ferramenta LegUP e 59,19% para Impulse C, considerando que para GPP o código foi compilado com o GCC (GNU Compiler Collection) utilizando o suporte a OpenMP. Os resultados demonstraram que esta abordagem pode ser empregada como um ponto de decisão inicial no processo de mapeamento em sistemas híbridos, somente analisando o perfil do código fonte sem que haja a necessidade de execução do mesmo para a tomada de decisão.
2022-12-06T14:47:11Z
Alexandre Shigueru Sumoyama