Repositório RCAAP
Analysis of medical images to support decision-making in the musculoskeletal field
Computer-aided diagnosis, computer-based image retrieval systems, and the radiomics approach are great allies to aid in decision making. However, an ordinary and laborious step in those approaches is the segmentation of a region of interest, for example, a vertebral body. Unfortunately, manually drawing accurate and precise boundaries is time-consuming and impractical to perform for many exams. Consequently, semi-automatic segmentation tools, with minimal interaction, pose high and attractive demand to the computational end. The greater goal is that, at some point, the physician intervention in the segmentation would be minimal with just a few or even no manual corrections. This doctorate research has the following hypothesis: The segmentation of vertebral bodies in MRI can be performed computationally faster with easier manual interaction and, at the same time, producing accurate results. We evaluate this hypothesis in three application scenarios as follows. First, we dealt with the challenging task of segmenting vertebral compression fractures in single MRI slices. We proposed Balanced Growth (BGrowth), which achieved 96.1% accuracy while keeping fast run-time performance. Second, we stepped into the segmentation of volumetric spine MRI exams, which is even more challenging due to several slices in the exams. We came up with a family of segmentation methods, presenting faster approaches with less manual interaction. Our final solution required annotating only two or three slices (among about 100 slices) and achieved 94% of F-Measure. To do so, we proposed the Estimation of ANnotation on Intermediary Slices (EANIS) along with the Fast Clever Segmentation (FastCleverSeg) method. Our approach was the fastest one and, at the same time, presented results similar to or better than the competitors. Finally, we assessed patients with bone fragility fractures using spine MRI and the radiomics approach. We proposed BonE Analysis Using Texture (BEAUT), which achieved 97% AUC for differentiating patients with and without vertebral body fragility fracture. Therefore, this doctorate research contributed to the state-of-the-art by introducing segmentation methods that presented promising results in the three scenarios mentioned above. We firmly believe that our contributions have a high potential to aid in the decision-making process and producing more ground truths for the training of deep learning models.
2022-12-06T14:47:11Z
Jonathan da Silva Ramos
Otimização bioinspirada para apoio à geração de dados de teste para software concorrente
A programação concorrente está cada vez mais presente nas aplicações modernas. Embora esse modelo de programação forneça maior desempenho e melhor aproveitamento dos recursos disponíveis, os mecanismos de interação entre processos/threads resultam em maior desafio para atividade de teste. O não determinismo presente nessas aplicações é um dos principais desafios na atividade de teste, uma vez que ainda com uma mesma entrada de teste o programa concorrente pode executar caminhos distintos, os quais podem ou não apresentar defeitos. A geração automática de dados de teste pode contribuir para essa atividade garantindo maior rapidez e confiabilidade no teste de software. Neste trabalho, a geração automática de dados de teste é explorada para o domínio de programas concorrentes por meio de uma técnica bioinspiradas de otimização, o Algoritmo Genético. Este estudo propõe uma abordagem de geração de dados para programas concorrentes denominada BioConcST. Além disso, propõe-se um novo operador de seleção de indivíduos de teste utilizando lógica fuzzy, denominado FuzzyST. Essas contribuições são avaliadas em um estudo experimental utilizado para validar as abordagens propostas. Os resultados obtidos do experimento demonstraram que a BioConcST é mais promissora que as demais abordagens utilizadas em todos os níveis analisados. Além disso, o operador FuzzyST também obteve os melhores resultados juntamente com os operadores Elitismo e Torneio. Contudo, o operador FuzzyST mostrou-se mais indicado para programas concorrentes de maior complexidade.
2022-12-06T14:47:11Z
Ricardo Ferreira Vilela
AccessMDD: uma abordagem MDD para geração de aplicativos móveis acessíveis
A utilização de dispositivos móveis vem crescendo de forma a se tornar parte integrante da rotina de milhares de pessoas. Muitos aplicativos móveis têm sido desenvolvidos visando facilitar o desempenho dos usuários nas mais diversas tarefas cotidianas. No entanto, se esses aplicativos não fornecerem acessibilidade adequada, pessoas com deficiência podem encontrar dificuldades ao interagirem com eles, ficando até mesmo impossibilitadas de acessá-los. No Brasil, aproximadamente 25% da população declara possuir algum tipo de deficiência. Embora as abordagens tradicionais para desenvolvimento de aplicativos móveis indiquem que aplicativos nativos alcançam desempenhos computacionais mais altos, por outro lado, apresentam altos custos de desenvolvimento, manutenibilidade difícil e menos recursos de acessibilidade para os componentes da interface. Os aplicativos móveis, portanto, requerem ainda atenção quanto à acessibilidade. A acessibilidade é indispensável para que todas as pessoas (incluindo-se as com deficiência) consigam interagir com os mecanismos disponíveis nos dispositivos móveis. Entendemos que o desenvolvimento orientado a modelos (MDD) e o desenvolvimento móvel cross-platform, juntos, podem oferecer benefícios para solucionar a lacuna e beneficiar o desenvolvimento de aplicativos móveis mais acessíveis. Nosso objetivo foi criar uma solução orientada a modelos cross-platform, para apoiar a geração de aplicativos móveis acessíveis. Portanto, neste projeto, investigamos as abordagens de MDD para desenvolvimento móvel, bem como a inclusão de recomendações para acessibilidade nos componentes da interface. Assim, foi desenvolvida uma abordagem, AccessMDD, visando estimular a conscientização dos desenvolvedores quanto às recomendações de acessibilidade. O foco da solução desenvolvida foi em usuários cegos para direcionar o desenvolvimento de uma abordagem eficiente para a inclusão de requisitos de acessibilidade na geração dos componentes de interfaces de aplicativos móveis acessíveis.
2022-12-06T14:47:11Z
Felipe Silva Dias
Métodos heurísticos para um problema de planejamento da produção em uma indústria química
Neste trabalho foi estudado um problema de dimensionamento de lotes em uma indústria química brasileira, cujo objetivo era determinar o tamanho dos lotes dos produtos para atender às demandas, minimizando os custos produtivos. Os itens podem ser produzidos em máquinas paralelas distintas, através de diferentes processos, e devem ser armazenados em taques cativos, exclusivos a um produto, ou multipropósitos, compartilhado entre produtos, desde que não simultaneamente. Foram propostos dois modelos matemáticos de programação inteira mista para representar o problema, o primeiro apresentava uma função objetivo compreendendo o preço das matérias-primas consumidas nas reações, os gastos com a estocagem de produtos e o custo de descarte de produtos quando os tanques de armazenamento não tiverem capacidade suficiente para armazená-los, já o segundo estendendo este modelo para considerar custos de preparação de máquina. Experimentos computacionais com os modelos propostos, utilizando instâncias geradas a partir dos dados fornecidos pela empresa, mostraram que o software de otimização empregado foi capaz de resolver poucas instâncias, após uma hora de processamento. Portanto, foram propostas heurísticas construtivas do tipo LP-and-fix e relax-and-fix, além de heurísticas de melhoria do tipo fix-and-optimize. Após serem realizados testes com essas heurísticas, constatou-se que algumas proporcionaram a obtenção de soluções factíveis de boa qualidade, quando comparadas às obtidas pelo software, sendo ainda capazes de resolver um maior número de instâncias
2022-12-06T14:47:11Z
Artur Lovato da Cunha
Análise espaço-temporal de data streams multidimensionais
Fluxos de dados são usualmente caracterizados por grandes quantidades de dados gerados continuamente em processos síncronos ou assíncronos potencialmente infinitos, em aplicações como: sistemas meteorológicos, processos industriais, tráfego de veículos, transações financeiras, redes de sensores, entre outras. Além disso, o comportamento dos dados tende a sofrer alterações significativas ao longo do tempo, definindo data streams evolutivos. Estas alterações podem significar eventos temporários (como anomalias ou eventos extremos) ou mudanças relevantes no processo de geração da stream (que resultam em alterações na distribuição dos dados). Além disso, esses conjuntos de dados podem possuir características espaciais, como a localização geográfica de sensores, que podem ser úteis no processo de análise. A detecção dessas variações de comportamento que considere os aspectos da evolução temporal, assim como as características espaciais dos dados, é relevante em alguns tipos de aplicação, como o monitoramento de eventos climáticos extremos em pesquisas na área de Agrometeorologia. Nesse contexto, esse projeto de mestrado propõe uma técnica para auxiliar a análise espaço-temporal em data streams multidimensionais que contenham informações espaciais e não espaciais. A abordagem adotada é baseada em conceitos da Teoria de Fractais, utilizados para análise de comportamento temporal, assim como técnicas para manipulação de data streams e estruturas de dados hierárquicas, visando permitir uma análise que leve em consideração os aspectos espaciais e não espaciais simultaneamente. A técnica desenvolvida foi aplicada a dados agrometeorológicos, visando identificar comportamentos distintos considerando diferentes sub-regiões definidas pelas características espaciais dos dados. Portanto, os resultados deste trabalho incluem contribuições para a área de mineração de dados e de apoio a pesquisas em Agrometeorologia.
2022-12-06T14:47:11Z
Santiago Augusto Nunes
Fusão de informações obtidas a partir de múltiplas imagens visando à navegação autônoma de veículos inteligentes em abiente agrícola
Este trabalho apresenta um sistema de auxilio à navegação autônoma para veículos terrestres com foco em ambientes estruturados em um cenário agrícola. É gerada a estimativa das posições dos obstáculos baseado na fusão das detecções provenientes do processamento dos dados de duas câmeras, uma estéreo e outra térmica. Foram desenvolvidos três módulos de detecção de obstáculos. O primeiro módulo utiliza imagens monoculares da câmera estéreo para detectar novidades no ambiente através da comparação do estado atual com o estado anterior. O segundo módulo utiliza a técnica Stixel para delimitar os obstáculos acima do plano do chão. Por fim, o terceiro módulo utiliza as imagens térmicas para encontrar assinaturas que evidenciem a presença de obstáculo. Os módulos de detecção são fundidos utilizando a Teoria de Dempster-Shafer que fornece a estimativa da presença de obstáculos no ambiente. Os experimentos foram executados em ambiente agrícola real. Foi executada a validação do sistema em cenários bem iluminados, com terreno irregular e com obstáculos diversos. O sistema apresentou um desempenho satisfatório tendo em vista a utilização de uma abordagem baseada em apenas três módulos de detecção com metodologias que não tem por objetivo priorizar a confirmação de obstáculos, mas sim a busca de novos obstáculos. Nesta dissertação são apresentados os principais componentes de um sistema de detecção de obstáculos e as etapas necessárias para a sua concepção, assim como resultados de experimentos com o uso de um veículo real.
2022-12-06T14:47:11Z
Vítor Manha Utino
Resolução de problemas de empacotamento de itens irregulares usando técnicas de programação não-linear
Os problemas de empacotamento de itens irregulares são problemas de corte e empacotamento, nos quais peças irregulares de menor tamanho (que chamamos de itens) devem ser empacotados inteiramente em uma peça grande (que chamamos de placa), obedecendo a restrições de nãosobreposição e minimizando as dimensões da placa. Para garantir a não-sobreposição, fazemos uso de retas separadoras, quer dizer, retas que separam um item de outro. Apresentamos modelos de programação não-linear para problemas de empacotamentos de itens regulares e irregulares que rotacionam livremente. Os itens podem ser círculos, polígonos convexos e não-convexos. A principal vantagem dos modelos é a simplicidade, já que estes utilizam somente conceitos básicos de geometria. Usamos o algoritmo de programação não-linear IPOPT (um algoritmo de tipo de pontos interiores), que faz parte da COIN-OR, para a resolução dos problemas. Testes computacionais foram executados usando instâncias conhecidas da literatura e os resultados foram comparados com resultados apresentados na literatura, obtidos com outras metodologias que também usam rotações livre, mostrando que nossos modelos são competitivos. Propomos também o uso de parábolas separadoras para a verificação de não-sobreposição na modelagem do problema, o que pode trazer ganhos computacionais e melhor qualidade de soluções.
2022-12-06T14:47:11Z
Jeinny Maria Peralta Polo
Modelos matemáticos e heurísticas baseadas em técnicas de programação matemática para o problema de minimização de perdas e reconfiguração de redes elétricas
A reconfiguração de redes de distribuição de energia elétrica consiste em alterar sua topologia por meio de manobras de chaves nos circuitos primários. Trata-se de um problema de otimização combinatória, onde normalmente os objetivos são a minimização de perdas ativas e/ou número de manobras realizadas, atendendo as restrições como isolamento de faltas, balanceamento de cargas entre os alimentadores e melhoria dos níveis de tensão. As dificuldades na modelagem e na resolução exata de problemas envolvendo a reconfiguração de redes de distribuição advém do tamanho dos sistemas reais, representados por um número elevado de chaves e alimentadores e ainda pela natureza combinatorial do problema. Para tratar essas questões, diversas modelagens e técnicas computacionais têm sido desenvolvidas, em particular heurísticas de melhoramento que através de uma solução factível, otimiza os resultados reduzindo o espaço de busca, até encontrar uma nova solução com melhor função objetivo. Neste sentido, são propostas duas formulações matemáticas descrevendo novas restrições a fim de melhorar a descrição do problema. A primeira, uma formulação mais simplificada, considera apenas a parte ativa das instâncias; na segunda um modelo completo é descrito otimizando parte das restrições do primeiro modelo e considerando também a parte reativa das instâncias. Duas heurísticas também são adaptadas pela primeira vez para o problema de reconfiguração de redes, pois a heurística de melhoramento Fix-and-Optmize é configurada de duas formas diferentes, determinando seus principais parâmetros através de uma análise de sensibilidade. Os resultados dos dois modelos propostos e também das heurísticas adaptadas para 13 sistemas de referência são descritos e comparados com outros métodos da literatura. Para verificar a eficiência e robustez dos métodos e heurísticas desenvolvidos, replicações são propostas de dois sistemas de referência, 9 replicações do sistema de 72 barras e 4 replicações do sistema de 10560 barras. Seus resultados bem como o desempenho dos métodos são descritos e avaliados.
2022-12-06T14:47:11Z
Karla Barbosa de Freitas Spatti
Mineração de opiniões baseada em aspectos para revisões de produtos e serviços
A Mineração de Opiniões é um processo que tem por objetivo extrair as opiniões e suas polaridades de sentimentos expressas em textos em língua natural. Essa área de pesquisa tem ganhado destaque devido ao volume de opiniões que os usuários compartilham na Internet, como revisões em sites de e-commerce, rede sociais e tweets. A Mineração de Opiniões baseada em Aspectos é uma alternativa promissora para analisar a polaridade do sentimento em um maior nível de detalhes. Os métodos tradicionais para extração de aspectos e classificação de sentimentos exigem a participação de especialistas de domínio para criar léxicos ou definir regras de extração para diferentes idiomas e domínios. Além disso, tais métodos usualmente exploram algoritmos de aprendizado supervisionado, porém exigem um grande conjunto de dados rotulados para induzir um modelo de classificação. Os desafios desta tese de doutorado estão relacionados a como diminuir a necessidade de grande esforço humano tanto para rotular dados, quanto para tratar a dependência de domínio para as tarefas de extração de aspectos e classificação de sentimentos dos aspectos para Mineração de Opiniões. Para reduzir a necessidade de grande quantidade de exemplos rotulados foi proposta uma abordagem semissupervisionada, denominada por Aspect-based Sentiment Propagation on Heterogeneous Networks (ASPHN) em que são propostas representações de textos nas quais os atributos linguísticos, os aspectos candidatos e os rótulos de sentimentos são modelados por meio de redes heterogêneas. Para redução dos esforços para construir recursos específicos de domínio foi proposta uma abordagem baseada em aprendizado por transferência entre domínios denominada Cross-Domain Aspect Label Propagation through Heterogeneous Networks (CD-ALPHN) que utiliza dados rotulados de outros domínios para suportar tarefas de aprendizado em domínios sem dados rotulados. Nessa abordagem são propostos uma representação em uma rede heterogênea e um método de propagação de rótulos. Os vértices da rede são os aspectos rotulados do domínio de origem, os atributos linguísticos e os candidatos a aspectos do domínio alvo. Além disso, foram analisados métodos de extração de aspectos e propostas algumas variações para considerar cenários nãosupervisionados e independentes de domínio. As soluções propostas nesta tese de doutorado foram avaliadas e comparadas as do estado-da-arte utilizando coleções de revisões de diferentes produtos e serviços. Os resultados obtidos nas avaliações experimentais são competitivos e demonstram que as soluções propostas são promissoras.
2022-12-06T14:47:11Z
Ivone Penque Matsuno Yugoshi
Um modelo de hipertexto para apoio ao ensino mediado pela Web
Atualmente há uma demanda crescente por aplicações hipermídia baseadas na WWW (World Wide Web), conhecidas como WIS (Web Information Systems). Esse novo tipo de aplicação apresenta requisitos adicionais aos sistemas de software clássicos, o que resulta na necessidade de investigar modelos mais adequados para apoiar o seu desenvolvimento. Em especial, os sistemas para apoio ao EaD (Ensino a Distância) baseados na Web apresentam características e requisitos ainda mais específicos. Os modelos atuais para modelagem e especificação de hiperdocumentos não são completamente adequados para representar características deste domínio, como a necessidade de acompanhamento dos aprendizes e a realização de avaliações diagnósticas e formativas. Isso motivou a proposta de um modelo para apoiar WISs voltados especificamente para EaD, denominado MDE (Modelo para Documentos Educacionais), que estende o modelo HMBS (Hyperdocument Model Based on Statecharts) para a descrição de conteúdo nesse domínio. O MDE adota como modelo formal subjacente uma variante da técnica Statecharts, cuja estrutura e semântica operacional possibilitam especificar a estrutura organizacional e a semântica navegacional de hiperdocumentos complexos. Adicionalmente, foi integrada ao MDE a técnica de mapeamento conceitual, que acrescenta um significado educacional aos grafos hierárquicos. Dessa forma, o modelo apresenta como pontos fortes a possibilidade de captar várias informações relevantes do comportamento do usuário no estudo do material disponível on-line e a disponibilização desses dados ao instrutor, como importante apoio à avaliação formativa. Como prova de conceito, foi desenvolvido o protótipo de um ambiente para autoria e oferecimento de cursos denominado ATEnA (Ambiente para Treinamento, Ensino e Aprendizagem). Esta tese apresenta também avaliações conceituais e práticas do modelo e do protótipo desenvolvidos.
2022-12-06T14:47:11Z
Willie Dresler Leiva
Programação de produção e dimensionamento de lotes para flowshop
O problema integrado de programação de produção e dimensionamento de lotes em ambiente fowshop consiste em estabelecer tamanhos de lotes de produção e alocar máquinas para processá-los dentro de um horizonte de planejamento, em uma linha de produção com máquinas dispostas em série. O problema considera que a demanda deve ser atendida sem atrasos, que a capacidade das máquinas deve ser respeitada e que as preparações de máquinas são dependentes da sequência de produção e preservadas entre períodos do horizonte de planejamento. O objetivo é determinar uma programação de produção visando minimizar os custos de preparação de máquina, de produção e de estoque. Um modelo matemático da literatura é apresentado assim como procedimentos para obtenção de limitantes inferiores. Além disso, abordamos o problema por meio de distintas versões da metaheurística Times Assíncronos (A-Teams). Os procedimentos propostos foram comparados com heurísticas da literatura baseadas em Programação Inteira Mista (MIP). As metodologias desenvolvidas e os resultados obtidos são apresentados nesta dissertação
2022-12-06T14:47:11Z
Marcio Antonio Ferreira Belo Filho
Planejamento de trajetória em ambientes com prioridades dinâmicas
A robótica móvel é uma área de pesquisa que está obtendo grande atenção da comunidade científica. O desenvolvimento de robôs móveis autônomos, que sejam capazes de interagir com o ambiente, aprender e tomar decisões corretas para que suas tarefas sejam executadas com êxito é o maior desafio em robótica móvel. O desenvolvimento destes sistemas inteligentes e autônomos consiste em uma área de pesquisa multidisciplinar considerada recente e extremamente promissora que envolve; por exemplo, inteligência artificial, aprendizado de máquina, estimação estatística e sistemas embarcados. Dentro desse contexto, esse trabalho aborda o problema de navegação e monitoramento de ambientes utilizando robôs móveis. Dada uma representação do ambiente (mapa topológico) e uma lista com urgências de cada uma das regiões do mapa, o robô deve estimar qual o percurso mais eficiente para monitorar esse ambiente. Uma vez que a urgência de cada região não visitada aumenta com o tempo, o trajeto do robô deve se adaptar a essas alterações. Entre as diversas aplicações práticas desse tipo de algoritmo, destaca-se o desenvolvimento de sistemas de segurança móveis inteligentes
2022-12-06T14:47:11Z
Heitor Luis Polidoro
Selecionando candidatos a descritores para agrupamentos hierárquicos de documentos utilizando regras de associação
Uma forma de extrair e organizar o conhecimento, que tem recebido muita atenção nos últimos anos, é por meio de uma representação estrutural dividida por tópicos hierarquicamente relacionados. Uma vez construída a estrutura hierárquica, é necessário encontrar descritores para cada um dos grupos obtidos pois a interpretação destes grupos é uma tarefa complexa para o usuário, já que normalmente os algoritmos não apresentam descrições conceituais simples. Os métodos encontrados na literatura consideram cada documento como uma bag-of-words e não exploram explicitamente o relacionamento existente entre os termos dos documento do grupo. No entanto, essas relações podem trazer informações importantes para a decisão dos termos que devem ser escolhidos como descritores dos nós, e poderiam ser representadas por regras de associação. Assim, o objetivo deste trabalho é avaliar a utilização de regras de associação para apoiar a identificação de descritores para agrupamentos hierárquicos. Para isto, foi proposto o método SeCLAR (Selecting Candidate Labels using Association Rules), que explora o uso de regras de associação para a seleção de descritores para agrupamentos hierárquicos de documentos. Este método gera regras de associação baseadas em transações construídas à partir de cada documento da coleção, e utiliza a informação de relacionamento existente entre os grupos do agrupamento hierárquico para selecionar candidatos a descritores. Os resultados da avaliação experimental indicam que é possível obter uma melhora significativa com relação a precisão e a cobertura dos métodos tradicionais
2022-12-06T14:47:11Z
Fabiano Fernandes dos Santos
Estratégias para apoiar a detecção de estruturas em visualizações multidimensionais perceptualmente sobrecarregadas
A disponibilização de técnicas efetivas para a Visualização Exploratória e Mineração Visual de conjuntos de dados volumosos e de alta dimensionalidade ainda representa um grande desafio para os pesquisadores. Apesar das muitas contribuições e dos avanços recentes, técnicas convencionais de visualização direta - em que cada elemento do conjunto de dados é mapeado em um elemento visual na tela - ainda são bastante limitadas nesse contexto. Neste trabalho técnicas de visualização exploratória foram revisitadas, e são enriquecidas com algumas estratégias que permitem gerar representações visuais mais efetivas para apoiar processos interativos de exploração de grandes conjuntos de dados de alta dimensionalidade. As técnicas introduzidas apresentam baixa complexidade computacional, de modo a não prejudicar ou inviabilizar a interação do usuário com as visualizações, na busca de padrões como agrupamentos e regiões de alta densidade nos dados, e podem ser caracterizadas como quatro contribuições distintas: (i) primeiramente, é apresentada uma nova técnica de visualização multi-dimensional, denominada VizJD, que projeta os dados em três dimensões espaciais e assim ameniza o efeito indesejado da excessiva sobreposição dos marcadores, típica de estratégias bidimensionais, como o RadViz e Star Coordinates, oferecendo uma alternativa de baixo custo para a projeção de dados multidimensionais no espaço 3D; (ii) técnicas de visualização direta, como Coordenadas Paralelas, RadViz e o próprio VizJD, são enriquecidas com informações de frequência e densidade computadas a partir dos dados, as quais são mapeadas visualmente buscando reduzir o efeito prejudicial de uma excessiva sobreposição dos marcadores, atenuar os efeitos indesejados da presença de ruído nos dados e ainda realçar a presença de padrões nos dados; (iii) é introduzido um procedimento interativo para apoiar a identificação de agrupamentos nos dados, o qual é apoiado nas visualizações enriquecidas com informação de frequência e densidade introduzidas anteriormente: (iv) finalmente, é apresentada uma estratégia simples para configurar a disposição dos atributos de dados mapeados na visualização, a qual resulta em visualizações de melhor qualidade e mais informativas no caso de dados de alta dimensionalidade. As propostas apresentadas são comparadas a trabalhos relacionados existentes na literatura, e avaliadas por meio de sua aplicação a vários conjuntos de dados reais e sintéticos, de vários tamanhos e dimensionalidades. Os resultados indicam que, apesar das estratégias propostas não eliminarem os problemas associados à oclusão e congestionamento visual na visualização de grandes conjuntos de dados, elas oferecem soluções efetivas e de baixo custo que ampliam a escalabilidade visual de técnicas tradicionais, viabilizando tarefas de exploração e mineração que seriam impossíveis, ou muito dificultadas, sem esses recursos.
2022-12-06T14:47:11Z
Almir Olivette Artero
Explorando superpixels para a segmentação semiautomática de imagens médicas para recuperação por conteúdo
Nesse trabalho foi desenvolvido o método VBSeg, um método de segmentação semiautomático de corpos vertebrais, que utiliza superpixels para aumentar a eficiência de técnicas de segmentação de imagens já estabelecidas na literatura, sem perder qualidade do resultado final. Experimentos mostraram que o uso de superpixels melhorou o resultado da segmentação dos corpos vertebrais em até 18%, além de aumentar a eficiência desses métodos, deixando a execução dos algoritmos de segmentação pelo menos 38% mais rápida. Além disso, o método desenvolvido possui baixa dependência do nível de especialidade do usuário e apresentou resultados comparáveis ao método Watershed, um método bem estabelecido na área de segmentação de imagens. Contudo, o método VBSeg segmentou 100% dos corpos vertebrais das imagens analisadas, enquanto que o método Watershed deixou de segmentar 44% dos corpos.
2022-12-06T14:47:11Z
Paulo Duarte Barbieri
AcCORD: um modelo colaborativo assíncrono para a reconciliação de dados
Reconciliação é o processo de prover uma visão consistente de dados provenientes de várias fontes de dados. Embora existam na literatura trabalhos voltados à proposta de soluções de reconciliação baseadas em colaboração assíncrona, o desafio de reconciliar dados quando vários usuários colaborativos trabalham de forma assíncrona sobre as mesmas cópias locais de dados, compartilhando somente eventualmente as suas decisões de integração particulares, tem recebido menos atenção. Nesta tese de doutorado investiga-se esse desafio, por meio da proposta do modelo AcCORD (Asynchronous COllaborative data ReconcIliation moDel). AcCORD é um modelo colaborativo assíncrono para reconciliação de dados no qual as atualizações dos usuários são mantidas em um repositório de operações na forma de dados de procedência. Cada usuário tem o seu próprio repositório para armazenar a procedência e a sua própria cópia das fontes. Ou seja, quando inconsistências entre fontes importadas são detectadas, o usuário pode tomar decisões de integração para resolvê-las de maneira autônoma, e as atualizações que são executadas localmente são registradas em seu próprio repositório. As atualizações são compartilhadas entre colaboradores quando um usuário importa as operações dos repositórios dos demais usuários. Desde que diferentes usuários podem ter diferentes pontos de vista para resolver o mesmo conflito, seus repositórios podem estar inconsistentes. Assim, o modelo AcCORD também inclui a proposta de diferentes políticas de reconciliação multiusuário para resolver conflitos entre repositórios. Políticas distintas podem ser aplicadas por diferentes usuários para reconciliar as suas atualizações. Dependendo da política aplicada, a visão final das fontes importadas pode ser a mesma para todos os usuários, ou seja, um única visão global integrada, ou resultar em distintas visões locais para cada um deles. Adicionalmente, o modelo AcCORD também incorpora um método de propagação de decisões de integração, o qual tem como objetivo evitar que um usuário tome decisões inconsistentes a respeito de um mesmo conflito de dado presente em diferentes fontes, garantindo um processo de reconciliação multiusuário mais efetivo. O modelo AcCORD foi validado por meio de testes de desempenho que avaliaram as políticas propostas, e por entrevistas a usuários que avaliaram não somente as políticas propostas mas também a qualidade da reconciliação multiusuário. Os resultados obtidos demonstraram a eficiência e a eficácia do modelo proposto, além de sua flexibilidade para gerar uma visão integrada ou distintas visões locais. As entrevistas realizadas demonstraram diferentes percepções dos usuários quanto à qualidade do resultado provido pelo modelo AcCORD, incluindo aspectos relacionados à consistência, aceitabilidade, corretude, economia de tempo e satisfação.
2022-12-06T14:47:11Z
Dayse Silveira de Almeida
Using phonetic knowledge in tools and resources for Natural Language Processing and Pronunciation Evaluation
This thesis presents tools and resources for the development of applications in Natural Language Processing and Pronunciation Training. There are four main contributions. First, a hybrid grapheme-to-phoneme converter for Brazilian Portuguese, named Aeiouadô, which makes use of both manual transcription rules and Classification and Regression Trees (CART) to infer the phone transcription. Second, a spelling correction system based on machine learning, which uses the trascriptions produced by Aeiouadô and is capable of handling phonologically-motivated errors, as well as contextual errors. Third, a method for the extraction of phonetically-rich sentences, which is based on greedy algorithms. Fourth, a prototype system for automatic pronunciation assessment, especially designed for Brazilian-accented English.
2022-12-06T14:47:11Z
Gustavo Augusto de Mendonça Almeida
Modelos ecológicos em redes complexas
Um dos padrões mais importantes que ocorrem em ecossistemas é a relação espécie-área, que relaciona o número de espécies em um ecossistema com a sua área disponível. O estudo dessa relação é fundamental para entender-se a biodiversidade e o impacto de políticas ambientais de preservação de espécies, de modo que é possível analisar desde os tamanhos das reservas necessários para a conservação das espécies e até verificar o impacto da intervenção humana em habitats naturais. Assim sendo, várias estratégias matemáticas e computacionais foram desenvolvidas para prever e entender esse padrão ecológico em modelos ecológicos. Todavia, muitas abordagens são simuladas em ambientes homogêneos e regulares, porém, sabe-se que, em cada ecossistema, há regiões com acidentes geográficos, variações de altitudes, vegetação e clima. Dessa forma, nesse trabalho, estamos interessados em estudar a influência de diferentes ambientes no processo de evolução das espécies. Para isso, consideramos modelos ecológicos que utilizam características geográficas para colonização e, comportamentos individuais como dispersão, mutação, acasalamento. Com isso, foi possível simular a propagação das espécies em diferentes topologias e analisar como ocorreu a dinâmica em cada uma delas. Assim, verificamos que a topologia regular e a dispersão homogênea dos indivíduos são duas características que maximizam a diversidade de espécies. E por outro lado, a formação de regiões mais densas e interações heterogêneas, contribuem para a diminuição da quantidade de espécies, apesar de em alguns casos, ajudarem na velocidade de propagação e colonização.
2022-12-06T14:47:11Z
Livia Akemi Hotta
The Similarity-aware Relational Division Database Operator
In Relational Algebra, the operator Division (÷) is an intuitive tool used to write queries with the concept of for all, and thus, it is constantly required in real applications. However, as we demonstrate in this MSc work, the division does not support many of the needs common to modern applications, particularly those that involve complex data analysis, such as processing images, audio, genetic data, large graphs, fingerprints, and many other non-traditional data types. The main issue is the existence of intrinsic comparisons of attribute values in the operator, which, by definition, are always performed by identity (=), despite the fact that complex data must be compared by similarity. Recent works focus on supporting similarity comparison in relational operators, but no one treats the division. MSc work proposes the new Similarity-aware Division (÷) operator. Our novel operator is naturally well suited to answer queries with an idea of candidate elements and exigencies to be performed on complex data from real applications of high-impact. For example, it is potentially useful to support agriculture, genetic analyses, digital library search, and even to help controlling the quality of manufactured products and identifying new clients in industry. We validate our proposal by studying the first two of these applications.
2022-12-06T14:47:11Z
André dos Santos Gonzaga
Effective and unsupervised fractal-based feature selection for very large datasets: removing linear and non-linear attribute correlations
Given a very large dataset of moderate-to-high dimensionality, how to mine useful patterns from it? In such cases, dimensionality reduction is essential to overcome the well-known curse of dimensionality. Although there exist algorithms to reduce the dimensionality of Big Data, unfortunately, they all fail to identify/eliminate non-linear correlations that may occur between the attributes. This MSc work tackles the problem by exploring concepts of the Fractal Theory and massive parallel processing to present Curl-Remover, a novel dimensionality reduction technique for very large datasets. Our contributions are: (a) Curl-Remover eliminates linear and non-linear attribute correlations as well as irrelevant attributes; (b) it is unsupervised and suits for analytical tasks in general not only classification; (c) it presents linear scale-up on both the data size and the number of machines used; (d) it does not require the user to guess the number of attributes to be removed, and; (e) it preserves the attributes semantics by performing feature selection, not feature extraction. We executed experiments on synthetic and real data spanning up to 1.1 billion points, and report that our proposed Curl-Remover outperformed two PCA-based algorithms from the state-of-the-art, being in average up to 8% more accurate.
2022-12-06T14:47:11Z
Antonio Canabrava Fraideinberze