RCAAP Repository

Métodos de apoio ao diagnóstico médico por imagens usando regras de associação e redes complexas

Com o desenvolvimento e barateamento dos equipamentos de aquisição de imagens, principalmente na área médica, tem sido geradas muitas imagens, as quais devem ser analisadas pelos especialistas. Esta tarefa pode ser muitas vezes cansativa e demorada, levando a possíveis erros no diagnóstico, pois a leitura das imagens depende da experiência e do estado físico e emocional do médico. Assim, sistemas de auxílio ao diagnóstico por computador (Computer-aided diagnosis - CAD) têm se tornado grandes aliados no processo de diagnóstico, realizando uma segunda leitura da imagem, servindo como uma segunda opinião ao especialista. Por isso, é necessário o desenvolvimento de técnicas de mineração de imagens para o aumento da precisão e da velocidade da análise das imagens. Assim, o objetivo deste trabalho foi desenvolver métodos de representação de imagens e de classificação associativa para aumentar a precisão da classificação de sistemas de auxílio ao diagnóstico médico por imagens. Para a representação de imagens foram desenvolvidas técnicas para reduzir a lacuna que há entre a representação numérica das imagens e seu significado semântico, a qual é chamada de `gap semântico\'. Para isso, foi usada a teoria das redes complexas para modelar as imagens em redes livres de escala, e os descritores das imagens foram compostos pelas medidas topológicas extraídas rede modelada. Os vetores de características gerados foram bem compactos, o que possibilitou também evitar o problema da `maldição da alta dimensionalidade\'. Para a classificação, foi desenvolvido o classificador associativo SACMiner, por meio do uso de regras de associação estatísticas, o qual evita a fase de discretização de dados, lidando diretamente com dados contínuos. Este foi um passo importante, já que a discretização pode causar a perda de informações e gerar inconsistência na base de dados. Além do SACMiner, foi desenvolvido o classificador MinSAR, o qual, além de não demandar a fase de discretização, também evita que o usuário tenha que fornecer parâmetros de entrada ao algoritmo responsável por gerar as regras. As técnicas até aqui listadas foram aplicadas em um sistema de auxílio ao diagnóstico de mama e comparadas com técnicas descritas na literatura, e os resultados mostram que as técnicas aqui propostas sobrepujaram as atuais da literatura. E por fim, foram sugeridas novas medidas para caracterizar imagens de pacientes com epilepsia no lobo temporal mesial, por meio do uso de medidas de espessura cortical, as quais melhoraram a precisão do sistema para este tipo de diagnóstico

Year

2013

Creators

Carolina Yukari Veludo Watanabe

Estudo de problemas de corte de itens irregulares com incertezas

Os problemas de corte e empacotamento aparecem nas mais variadas empresas do setor logístico e de manufatura, bem como nas indústrias de móveis, vestuário, metal-mecânica, têxtil e outras. Esta tese é voltada para o estudo de problemas de nesting, ou seja, problemas de corte e empacotamento de itens irregulares, na presença de incertezas que surgem de contextos reais. Os problemas consideram duas dimensões e os itens são representados por polígonos convexos e/ou não convexos, enquanto os recipientes são retangulares. A primeira contribuição da tese está relacionada a duas heurísticas competitivas para o problema da mochila sem incertezas. Uma heurística é baseada no algoritmo genético de chaves aleatórias viciadas, enquanto a outra considera uma busca em vizinhança variável. Enquanto as heurísticas geram sequências de itens, três regras são usadas para o posicionamento de itens. Desenvolve-se ainda uma codificação para a solução do problema que permite ignorar posições viáveis durante o posicionamento de itens e, assim, escapar de possíveis ótimos locais. Em geral, estas heurísticas permitiram melhorar o estado-da-arte do problema, obtendo soluções cuja área ocupada aumentou em torno de 6% na média. A segunda contribuição envolve o problema de corte em faixa cuja demanda dos itens é um dado incerto. Além de propor para este problema um modelo de programação estocástica de dois estágios com recurso, apresenta-se um algoritmo branch-and-cut que integra uma heurística de busca em vizinhança variável para gerar soluções válidas nos nós da árvore de busca. O algoritmo proposto é competitivo com outros da literatura sobre o problema sem incertezas. No problema com incertezas, o algoritmo pode obter soluções para instâncias com até 80 cenários. Além disso, as análises das soluções do modelo de programação estocástica indicam que ignorar a aleatoriedade dos dados na escolha de uma decisão pode resultar em soluções de custo elevado. Por fim, a terceira contribuição consiste em um modelo de programação estocástica de dois estágios com recurso para um problema da mochila que apresenta defeitos no recipiente, sendo os defeitos tratados como dados incertos. As soluções geradas pelo modelo são analisadas quanto ao valor esperado da informação perfeita e o valor da solução estocástica, indicando o impacto que as incertezas têm sobre o problema. Este modelo também é extendido para considerar uma medida de risco, objetivando controlar a variabilidade das decisões de segundo estágio e, assim, obter soluções aversas ao risco. Os resultados computacionais sugerem que soluções totalmente aversas ao risco podem requerer reduções de até 28% no lucro total esperado

Year

2022

Creators

Layane Rodrigues de Souza Queiroz

Modelagem computacional para reconhecimento de emoções baseada na análise facial

As emoções são objeto de estudo não apenas da psicologia, mas também de diversas áreas como filosofia, psiquiatria, biologia, neurociências e, a partir da segunda metade do século XX, das ciências cognitivas. Várias teorias e modelos emocionais foram propostos, mas não existe consenso quanto à escolha de uma ou outra teoria ou modelo. Neste sentido, diversos pesquisadores argumentam que existe um conjunto de emoções básicas que foram preservadas durante o processo evolutivo, pois servem a propósitos específicos. Porém, quantas e quais são as emoções básicas aceitas ainda é um tópico em discussão. De modo geral, o modelo de emoções básicas mais difundido é o proposto por Paul Ekman, que afirma a existência de seis emoções: alegria, tristeza, medo, raiva, aversão e surpresa. Estudos também indicam que existe um pequeno conjunto de expressões faciais universais capaz de representar as seis emoções básicas. No contexto das interações homem-máquina, o relacionamento entre ambos vem se tornando progressivamente natural e social. Desta forma, à medida que as interfaces evoluem, a capacidade de interpretar sinais emocionais de interlocutores e reagir de acordo com eles de maneira apropriada é um desafio a ser superado. Embora os seres humanos utilizem diferentes maneiras para expressar emoções, existem evidências de que estas são mais precisamente descritas por expressões faciais. Assim, visando obter interfaces que propiciem interações mais realísticas e naturais, nesta tese foi desenvolvida uma modelagem computacional, baseada em princípios psicológicos e biológicos, que simula o sistema de reconhecimento emocional existente nos seres humanos. Diferentes etapas são utilizadas para identificar o estado emocional: a utilização de um mecanismo de pré-atenção visual, que rapidamente interpreta as prováveis emoções, a detecção das características faciais mais relevantes para o reconhecimento das expressões emocionais identificadas, e a análise de características geométricas da face para determinar o estado emocional final. Vários experimentos demonstraram que a modelagem proposta apresenta taxas de acerto elevadas, boa capacidade de generalização, e permite a interpretabilidade das características faciais encontradas.

Year

2014

Creators

Giampaolo Luiz Libralon

SIMULACAO DISTRIBUIDA EM UMA REDE DE TRANSPUTERS UTILIZANDO O METODO CMB.

Neste trabalho é apresentada a implementação do Sistema de Simulação Distribuída (SSD), uma extensão funcional para simulação distribuída na linguagem de programação concorrente Occam2. O sistema proposto foi desenvolvido utilizando-se a estrutura básica da extensão funcional para simulação SMPL, implementada em C e que permite a execução de simulação seqüencial. Um dos pontos críticos da simulação distribuída é a utilização de um protocolo para garantir o sincronismo da simulação. No sistema desenvolvido foi adotado o método CMB, proposto por Chandy, Misra e Bryant. Este método é assíncrono e conservativo, isto é, garante que o sincronismo será sempre verificado. A implementação e testes do sistema proposto foram efetuados utilizando-se uma máquina com arquitetura MIMD baseada em Transputers. Os resultados obtidos mostram que a utilização do sistema implementado pode apresentar ganhos de performance significativos. São analisados os tempos de execução variando diversos parâmetros, tais como: granularidade e número de iterações.

Year

1995

Creators

João Carlos de Moraes Morselli Junior

METODOLOGIA MIND-BFB PROPOSTA DE UMA FERRAMENTA

Esta dissertação apresenta a macrometodologia MINO OFB, composta de módulos para controle de projetos, especificação e projeto de Sistemas de Informação. A metodologia para especificação, denominada REMORA é apresentada com mais detalhes e uma ferramenta de apoio ao uso dessa metodologia foi desenvolvida. A ferramenta, denominada MIND AID, foi escrita em Prolog e apresenta facilidades para a especificação de um sistema em REMORA, análises de consistência da base de dados que representa o sistema, bem como vários relatórios para apoio na fase de especificação e nas fases do ciclo de vida.

IMPLEMENTAÇÃO LÓGICA DO NÚCLEO DE UM SISTEMA ESPECIALISTA

Neste trabalho apresentamos a construção e implementação do Núcleo de um Sistema Especialista que usa raciocínio por \"default\" e representa o conhecimento usando \"frames\". O raciocínio \"default\" está associado com conhecimento incompleto, isto é, possíveis hipóteses (defaults) podem ser usadas para raciocinar, sempre que elas forem consistentes com os demais conhecimentos do problema em questão. A idéia geral utilizada é que os seres humanos constroem uma \"teoria científica\' para predizer observações e que esta teoria pode ser justificada. Mostramos também uma forma simples de selecionar estas teorias a fim de obter aprendizagem ou diagnose. O sistema tem sido implementado em uma extensão da linguagem de programação lógica PROLOG.

Year

1988

Creators

Sandra Mari Hebihara

Replicação de estudos empíricos em engenharia de software.

A crescente utilização de sistemas baseados em computação em praticamente todas as áreas da atividade humana provoca uma crescente demanda por qualidade e produtividade, tanto do ponto de vista do processo de produção como do ponto de vista dos produtos de software gerados. Nessa perspectiva, atividades agregadas sob o nome de Garantia de Qualidade de Software têm sido introduzidas ao longo de todo o processo de desenvolvimento de software. Dentre essas atividades destacam-se as atividades de Teste e Revisão, ambas com o objetivo principal de minimizar a introdução de erros durante o processo de desenvolvimento nos produtos de software gerados. A atividade de Teste constitui um dos elementos para fornecer evidências da confiabilidade do software em complemento a outras atividades, como por exemplo, o uso de revisões e de técnicas formais e rigorosas de especificação e de verificação. A atividade de Revisão, por sua vez, é um 'filtro' eficiente para o processo de engenharia de software, pois favorece a identificação e a eliminação de erros antes do passo seguinte do processo de desenvolvimento. Atualmente, pesquisas estão sendo realizadas com objetivo de determinar qual técnica, Revisão ou Teste, é mais adequada e efetiva, em determinadas circunstâncias, para descobrir determinadas classes de erros; e de forma mais ampla, como as técnicas podem ser aplicadas de forma complementar para melhoria da qualidade de software. Ainda que a atividade de teste seja indispensável no processo de desenvolvimento, investigar o aspecto complementar dessas técnicas é de grande interesse, pois em muitas situações tem-se observado que as revisões são tão ou mais efetivas quanto os testes. Nessa perspectiva, este trabalho tem como objetivo realizar um estudo comparativo, por meio da replicação de experimentos, entre Técnicas de Teste e Técnicas de Revisão no que se refere à detecção de erros em produtos de software (código fonte e documento de especificação de requisitos). Para realizar esse estudo são utilizados critérios de teste das técnicas funcional (particionamento em classes de equivalência e análise do valor limite), estrutural (todos-nós, todos-arcos, todos-usos, todos-potenciais-usos), baseada em erros (análise de mutantes), bem como, técnicas de leitura (stepwise abstraction e perspective based reading) e técnicas de inspeção (ad hoc e checklist). Além de comparar a efetividade e a eficiência das técnicas em detectar erros em produtos de software, este trabalho objetivo ainda utilizar os conhecimentos específicos relacionados a critérios de teste para reavaliar as técnicas utilizadas nos experimentos de Basili & Selby, Kamsties & Lott e Basili.

Year

2001

Creators

Emerson Silas Dória

PROJETO DE UMA REDE LOCAL DE COMPUTADORES DE ALTA VELOCIDADE

Neste trabalho apresenta-se o projeto de uma rede local de alta velocidade baseada num barramento paralelo centralizado. Procurou-se explorar técnicas de arquitetura como uma forma de compensar as limitações tecnológicas de hardware, obtendo-se altas taxas de transmissão com tecnologia nacional a custos acessíveis. Descrevem-se os aspectos gerais de projeto e implementação, e apresentam-se os resultados obtidos com o primeiro protótipo da rede local.

Year

1988

Creators

Eduardo Marques

Geração de recomendações interpretáveis em sistemas de recomendação utilizando contexto

Usuários enfrentam dificuldades em escolher produtos e serviços na Web devido a grande variedade de possibilidades de escolha. Nesse contexto, os sistemas de recomendação têm como objetivo auxiliar indivíduos a identificarem itens de interesse em um conjunto de opções. As abordagens tradicionais de sistemas de recomendação focam em recomendar itens mais relevantes para usuários individuais, não levando em consideração o contexto dos usuários. Porém, em muitas aplicações reais, é importante também considerar informações contextuais, por meio dos sistemas de recomendação sensíveis ao contexto, uma vez que estudos indicam que o uso de tais informações pode melhorar a acurácia das recomendações. Existem diversos tipos de sistemas de recomendação, como os baseados em conteúdo, na vizinhança de usuários e itens, baseados em fatoração de matrizes e em deep learning. No entanto, a maioria desses sistemas são considerados caixas-pretas, já que não oferecem transparência ao processo de recomendação, o que dificulta que usuários confiem nas recomendações apresentadas. Nesse sentido, fornecer recomendações interpretáveis tende a aumentar a confiança e a satisfação do usuário em relação ao sistema. O uso de explicações em sistemas de recomendação tem se mostrado uma área de pesquisa promissora, mas, ainda assim, poucos trabalhos exploraram a utilização de contexto como forma de gerar as explicações. Diante desse cenário, este projeto tem como objetivo propor o método HINCARS que gera recomendações interpretáveis utilizando informações contextuais. Os resultados obtidos mostraram que o método obteve resultados equiparáveis a um algoritmo estado-da-arte.

Year

2021

Creators

Vitor Rodrigues Tonon

"Filas paralelas com servidores heterogêneos e jockeying probabilístico"

Utilizou-se neste trabalho um sistema de filas contendo três servidores exponenciais, heterogêneos, operando em paralelo. Trocas entre filas são permitidas após o usuário analisar dois aspectos: a diferença entre o tamanho das filas envolvidas na troca e o grau de vizinhança entre elas. O jockeying não é obrigatório, podendo os usuários optar por ele com uma probabilidade de ocorrência de acordo com os aspectos citados. Como resultado deste estudo foi obtida uma equação geral que representa o sistema. O sistema M/(M/1)3 com jockeying probabilístico tem uma ociosidade bem menor que o tradiconal M/Mi/3, alimentado por fila única. Outras características foram analisadas.

Year

2002

Creators

Sidney Carlos Ferrari

Metodologia para mapeamento de informações não estruturadas descritas em laudos médicos para uma representação atributo-valor

Devido à facilidade com que informações biomédicas em língua natural são registras e armazenadas no formato digital, a recuperação de informações a partir de registros de pacientes nesse formato não estruturado apresenta diversos problemas a serem solucionados. Assim, a extração de informações estruturadas (por exemplo, no formato atributo-valor) a partir de registros não estruturados é um importante problema de pesquisa. Além disso, a representação de registros médicos não estruturados no formato atributo-valor, permite a aplicação de uma grande variedade de métodos de extração de padrões. Para mapear registros médicos não estruturados no formato atributo-valor, propomos uma metodologia que pode ser utilizada para automaticamente (ou semi-automaticamente, com a ajuda de um especialista do domínio) mapear informações médicas de interesse armazenadas nos registros médicos e descritas em linguagem natural em um formato estruturado. Essa metodologia foi implementada em um sistema computacional chamado TP-DISCOVER, o qual gera uma tabela no formato atributo-valor a partir de um conjunto de registros de pacientes (documentos). De modo a identificar entidades importantes no conjunto de documentos, assim como relacionamentos significantes entre essas entidades, propomos uma abordagem de extração de terminologia híbrida (lingüística/estatística) a qual seleciona palavras e frases que aparecem com freqüência acima de um dado limiar por meio da aplicação de medidas estatísticas. A idéia geral dessa abordagem híbrida de extração de terminologia é que documentos especializados são caracterizados por repetir o uso de certas unidades léxicas ou construções morfo-sintáticas. Nosso objetivo é reduzir o esforço despendido na modelagem manual por meio da observação de regularidades no texto e o mapeamento dessas regularidades como nomes de atributos na representação atributo-valor. A metodologia proposta foi avaliada realizando a estruturação automática de uma coleção de 6000 documentos com informações de resultados de exames de Endoscopia Digestiva Alta descritos em língua natural. Os resultados experimentais, os quais podem ser considerados os piores resultados, uma vez que esses resultados poderiam ser muito melhores caso a metodologia for utilizada semi-automaticamente junto com um especialista do domínio, mostram que a metodologia proposta é adequada e permite reduzir o tempo usado pelo especialista para analisar grande quantidade de registros médicos

Year

2008

Creators

Daniel de Faveri Honorato

Teste de mutação aplicado a programas concorrentes em MPI

A Programação Concorrente tornou-se uma forma popular de desenvolvimento de software. Este paradigma de desenvolvimento e essencial para construir aplicações com o intuito de reduzir o tempo computacional em muitos domínios como, por exemplo, previsão tempo, processamento de imagem, entre outros. Estes programas têm novas características como a comunicação, a sincronização e o não determinismo, que precisam ser considerados durante a atividade de teste. O teste de software e uma atividade que busca garantir a qualidade por meio da identificação de falhas no produto. O Teste de Mutação e um critério de teste que se baseia nos enganos que podem ser cometidos pelos desenvolvedores de software. Porém, o teste de mutação não pode ser aplicado em programas concorrentes da mesma maneira como e aplicado em programas sequenciais por causa das particularidades presentes nos programas concorrentes. Um problema de aplicar o teste de mutação nesse contexto e o comportamento não determinístico das aplicações. Este trabalho investiga a definição do teste de mutação para programas concorrentes implementados em MPI (Message Passing Interface), os quais realizam comunicação e sincronização por meio de troca de mensagens. Para isso, defeitos típicos nesse domínio foram considerados, buscando modelar operadores de mutação para tratar os aspectos de comunicação e sincronização dessas aplicações. Também foi proposto um procedimento para dar suporte a análise comportamental dos mutantes. As idéias foram implementadas em uma ferramenta de teste chamada ValiMPI Mut

Year

2013

Creators

Rodolfo Adamshuk Silva

Navegação autônoma para robôs móveis usando aprendizado supervisionado.

A navegação autônoma é um dos problemas fundamentais na área da robótica móvel. Algoritmos capazes de conduzir um robô até o seu destino de maneira segura e eficiente são um pré-requisito para que robôs móveis possam executar as mais diversas tarefas que são atribuídas a eles com sucesso. Dependendo da complexidade do ambiente e da tarefa que deve ser executada, a programação de algoritmos de navegação não é um problema de solução trivial. Esta tese trata do desenvolvimento de sistemas de navegação autônoma baseados em técnicas de aprendizado supervisionado. Mais especificamente, foram abordados dois problemas distintos: a navegação de robôs/- veículos em ambientes urbanos e a navegação de robôs em ambientes não estruturados. No primeiro caso, o robô/veículo deve evitar obstáculos e se manter na via navegável, a partir de exemplos fornecidos por um motorista humano. No segundo caso, o robô deve identificar e evitar áreas irregulares (maior vibração), reduzindo o consumo de energia. Nesse caso, o aprendizado foi realizado a partir de informações obtidas por sensores. Em ambos os casos, algoritmos de aprendizado supervisionado foram capazes de permitir que os robôs navegassem de maneira segura e eficiente durante os testes experimentais realizados

Year

2014

Creators

Jefferson Rodrigo de Souza

Avaliação automática de acessibilidade em RIA

Com a popularização da Web 2.0 e RIA - Rich Internet Applications, as aplicações web cada vez mais utilizam-se da linguagem JavaScript, para implementar recursos de interação sofisticados e complexos na plataforma da Web, visando atrair os usuários com experiências que agradem e atendam suas expectativas. Uma vez que esses recursos de RIA, muitas vezes, fornecem feedback visual de mudanças realizadas na interface, usuários que interagem com a Web por meio de Tecnologias Assistivas, como leitores de tela, não são capazes de identificar e interagir corretamente com os componentes de interface. Assim, a WAI - Web Accessibility Initiative propôs a especificação ARIA - Accessible Rich Internet Applications que determina um conjunto de propriedades que atribuem semântica aos elementos de um componente de interface (Widget), permitindo que as Tecnologias Assistivas identifiquem previamente o comportamento dos componentes de interface e informem o usuário sobre as alterações que possam ser realizadas na estrutura da página web. Nesse contexto, esta tese teve como objetivo elaborar estratégias de avaliação automática dos requisitos de acessibilidade da especificação ARIA. Foram elaboradas três diferentes abordagens para analisar os requisitos da especificação ARIA, utilizando a metodologia de pesquisa-ação com a condução de três ciclos das atividades de planejar, agir, descrever e avaliar. As abordagens foram desenvolvidas com base em Testes de Aceitação e verificações de características tecnológicas das aplicações web, considerando especificamente o modelo de interação de usuários deficientes visuais que utilizam leitores de tela. Cada uma das abordagens foi validada separadamente e os resultados apresentam tendências de que as estratégias são capazes de avaliar corretamente o comportamento esperado de uma aplicação rica de Internet acessível, segundo as recomendações ARIA para usuÁ¡rios deficientes visuais. As abordagens também apresentaram como contribuições: a inclusão do modelo de interação do usuário no processo de avaliação e levantamentos sobre os níveis de conformidade de aplicações web e bibliotecas JavaScript com a especificação ARIA. Os resultados obtidos a partir das abordagens propostas nesta tese contribuem para o processo de Engenharia Web de aplicações ricas de Internet acessíveis

Year

2014

Creators

Willian Massami Watanabe

Elderly activity recognition using smartphones and wearable devices

Research that involves human-beings depends on the data collection. As technology solutions become popular in the context of healthcare, researchers highlight the need for monitoring and caring patients in situ. Human Activity Recognition (HAR) is a research field that combines two areas: Ubiquitous Computing and Artificial Intelligence. HAR is daily applied in several service sectors including military, security (surveillance), health and entertainment. A HAR system aims to identify and recognize the activities and actions a user performs, in real time or not. Ambient sensors (e.g. cameras) and wearable devices (e.g. smartwatches) collect information about users and their context (e.g. localization, time, companions). This data is processed by machine learning algorithms that extract information and classify the corresponding activity. Although there are several works in the literature related to HAR systems, most studies focusing on elderly users are limited and do not use, as ground truth, data collected from elder volunteers. Databases and sensors reported in the literature are geared towards a generic audience, which leads to loss in accuracy and robustness when targeted at a specific audience. Considering this gap, this work presents a Human Activity Recognition system and corresponding database focusing on the elderly, raising requirements and guidelines for supportive HAR system and the selection of sensor devices. The system evaluation was carried out checking the accuracy of the activity recognition process, defining the best statistical features and classification algorithms for the Elderly Activity Recognition System (EARS). The results suggest that EARS is a promising supportive technology for the elderly, having an accuracy of 98.37% with KNN (k = 1).

Year

2019

Creators

Larissa Cardoso Zimmermann

Sistema ADAS para identificação de distrações e perturbações do motorista na condução de veículos

Este trabalho apresenta um sistema que se utiliza de características extraídas de dados provenientes de um sensor Kinect v2 para monitorar o motorista, dados de sensores inerciais, da telemetria do veículo e dados sobre a estrada/faixa de rodagem para reconhecer o estilo de direção, permitindo ao sistema detectar o uso do celular no trânsito, um motorista embriagado e a direção sonolenta, evitando assim, riscos relacionados com a direção. De fato, quando veículos são conduzidos por pessoas em ligações telefônicas, o risco de acidente aumenta de 4 a 6 vezes. Motoristas embriagados causaram 10:497 mortes nas rodovias dos Estados Unidos da América em 2016, segundo o órgão local responsável pela segurança no trânsito (NHTSA). Um Conjunto de Dados Naturalista do Comportamento do Motorista (NDBD) foi criado especificamente para este trabalho e utilizado para o teste e validação do sistema proposto. A solução proposta emprega duas análises dos dados do motorista, os subsistemas de reconhecimento de padrões de Curto e Longo prazos. Assim, pode-se detectar situações de risco na direção. O sistema possui 3 níveis de alerta: sem alerta, alerta baixo e alerta alto. O subsistema de Curto Prazo detecta situações de sem alerta e de algum nível de alerta. Já o subsistema de Longo Prazo é responsável por determinar o nível de alerta: baixo ou alto. Classificadores baseados em Aprendizado de Máquina e Redes Neurais Artificiais (RNA) foram utilizados. Um Algoritmo Genético foi empregado para otimizar e selecionar um conjunto de valores que ajustam a entrada de características, função de ativação dos neurônios e topologia/treino da rede neural. O sistema proposto alcançou 79;5% de acurácia nos frames do NDBD (conjunto de treinamento e validação obtidos utilizando um simulador veicular próprio), para a detecção conjunta de risco em situações de uso de celular, embriaguez ou condução normal. Para o classificador de Curto Prazo, utilizou-se períodos de 5 frames e uma janela de 140 frames para o Longo Prazo. Considerando a detecção individualizada dos problemas de condução, no caso específico da embriaguez (usados dados de embriaguez e direção normal) o sistema obteve 98% de acurácia, e especificamente para o uso de celular obteve 95% de acurácia. Na classificação de sem alerta (situações sem risco), o sistema obteve apenas 1;5% de predições erradas (falsos positivos), contribuindo assim para o conforto do motorista ao utilizar o sistema.

Year

2019

Creators

Rafael Alceste Berri

Finite element methods for multuphase flow in microscales

This doctoral research project aims the study of finite element methods discretized in dynamic meshes in order to simulate fluid-solid interaction and multiphase flow phenomena, particularly flows involving phenomena that are most significant in microfluidic and biofluidic applications. The equations that model multiphase flow will be treated in an arbitrary Lagrangian-Eulerian framework, when required, with several types of boundary conditions at the interfaces, depending on the nature of the phases. The numerical challenges found in this application range from the correct representation of the interface between fluids, passing through geometric challenges in the maintainability of the computer mesh, to the challenges posed by microscales. Special attention is given to squimer models, by means of a general formulation of the swimming problem as well as the steps to transform a standard fluid-solid model to a squirming model.

Year

2019

Creators

Stevens Paz Sanchez

Classificação de úlceras venosas dermatológicas para apoio a consultas por similaridade utilizando superpixels e aprendizado profundo

Sistemas de recuperação de imagens por conteúdo (do inglês Content-based ImageRetrieval - CBIR) têm sido cada vez mais utilizados em diversas aplicações de tratamento e análise de imagens, devido a dois fatores: CBIR é um procedimento que pode ser feito automaticamente, permitindo tratar o grande volume de imagens adquiridos em hospitais, e também é a base para o processamento de consultas por similaridade. No contexto médico tais sistemas auxiliam em diversas tarefas, desde treinamento de profissionais até em sistemas de auxílio a diagnóstico (do inglês Computer-Aided Diagnosis - CAD). Um sistema computacional capaz de comparar e classificar imagens obtidas em exames de pacientes utilizando uma base prévia de conhecimento poderia agilizar o atendimento da população e fornecer aos especialistas informações relevantes de forma rápida e simples. Neste trabalho, o foco foi na análise de imagens de úlceras venosas. Foram desenvolvidas duas técnicas para classificação dessas imagens. A primeira, denominada Counting-Labels Similarity Measure (CL-Measure) possuia vantagem de lidar com imagens segmentadas de forma automática, por superpixels, e ser versátil o suficiente para permitir adaptação para outros domínios. A ideia principal do CL-Measure consiste na criação de sub-imagens baseadas em uma classificação prévia, calcular a distância entre elas e agregar as distâncias parciais obtidas a partir de uma função apropriada. A segunda técnica, denominada Quality of Tissues from Dermatological Ulcers(QTDU), faz uso de redes convolucionais (CNNs) para rotulação dos superpixels com a vantagem de compor todo o processo de identificação de características e classificação, dispensando a necessidade de identificar qual o extrator de características mais adequado para o contexto em questão. Experimentos realizados sobre a base de imagens analisada, utilizando 179572 super pixels divididos em 4 classes, indicam que a QTDU é a abordagem mais eficaz até o momento para o contexto de classificação de imagens dermatológicas, com médias de AUC=0,986, sensitividade = 0,97,e especificidade=0,974 superando as abordagens anteriores baseadas em aprendizado de máquina em 11;7% e 8;2% considerando o coeficiente KAPPAeF-Measure, respectivamente.

Year

2019

Creators

Gustavo Blanco