Repositório RCAAP
Substituição de valores ausentes: uma abordagem baseada em um algoritmo evolutivo para agrupamento de dados
A substituição de valores ausentes, também conhecida como imputação, é uma importante tarefa para a preparação dos dados em aplicações de mineração de dados. Este trabalho propõe e avalia um algoritmo para substituição de valores ausentes baseado em um algoritmo evolutivo para agrupamento de dados. Este algoritmo baseia-se na suposição de que grupos (previamente desconhecidos) de dados podem prover informações úteis para o processo de imputação. Para avaliar experimentalmente o algoritmo proposto, simulações de valores ausentes foram realizadas em seis bases de dados, para problemas de classificação, com a aplicação de dois mecanismos amplamente usados em experimentos controlados: MCAR e MAR. Os algoritmos de imputação têm sido tradicionalmente avaliados por algumas medidas de capacidade de predição. Entretanto, essas tradicionais medidas de avaliação não estimam a influência dos métodos de imputação na etapa final em tarefas de modelagem (e.g., em classificação). Este trabalho descreve resultados experimentais obtidos sob a perspectiva de predição e inserção de tendências (viés) em problemas de classificação. Os resultados de diferentes cenários nos quais o algoritmo proposto, apresenta em geral, desempenho semelhante a outros seis algoritmos de imputação reportados na literatura. Finalmente, as análises estatísticas reportadas sugerem que melhores resultados de predição não implicam necessariamente em menor viés na classificação
2010
Jonathan de Andrade Silva
Uma abordagem para projeto de aplicações com interação multimodal da Web
O principal objetivo do desenvolvimento de aplicações multimodais é possibilitar uma maneira mais natural dos seres humanos se comunicarem com as máquinas, por meio de interfaces mais eficientes, intuitivas, fáceis de usar e, de certa forma, mais inteligentes. No entanto, a literatura da área mostra que a reutilização, tanto de conhecimento como de código fonte, ainda apresenta problemas, dados a complexidade do código em sistemas multimodais, a falta de mecanismos eficientes de testes de usabilidade e a dificuldade em se gerenciar a captura, o armazenamento e a recuperação de conhecimento de projeto. Nesta tese argumenta-se que a utilização de uma abordagem sistemática, centrada no usuário, apoiada por uma ferramenta computacional e com um modelo bem definido que permita o desenvolvimento de interfaces multimodais com a reutilização de Design Rationale, aumenta e melhora os níveis de usabilidade, promove a identificação e utilização de padrões de projeto e o reúso de componentes. Para demonstrar esta tese, apresenta-se neste texto a abordagem para o desenvolvimento de interfaces multimodais Web, MMWA, e o seu ambiente de autoria, o MMWA-ae, ambos compostos por atividades que auxiliam a equipe de projeto durante as fases de projeto, desenvolvimento e avaliações de usabilidade. São discutidos também os resultados obtidos com a execução de três estudos de caso, realizados no ambiente acadêmico, nos quais se buscou determinar a viabilidade da abordagem e os benefícios que podem ser alcançados com a combinação de diferentes técnicas, a saber: design rationale, padrões de projeto, modelagem de tarefas, componentes de software, princípios de usabilidade, avaliações heurísticas, testes com usuários, regras de associação, entre outras. Os resultados evidenciam que a abordagem e seu ambiente de autoria podem proporcionar diferentes benefícios para organizações que desenvolvem sistemas multimodais, incluindo o aumento da usabilidade e consequentemente da qualidade do produto, bem como a diminuição de custos e da complexidade do desenvolvimento com a reutilização de código e de conhecimento capturado em projetos anteriores
Agrupamento de dados fuzzy colaborativo
Nas últimas décadas, as técnicas de mineração de dados têm desempenhado um importante papel em diversas áreas do conhecimento humano. Mais recentemente, essas ferramentas têm encontrado espaço em um novo e complexo domínio, nbo qual os dados a serem minerados estão fisicamente distribuídos. Nesse domínio, alguns algorithmos específicos para agrupamento de dados podem ser utilizados - em particular, algumas variantes do algoritmo amplamente Fuzzy C-Means (FCM), as quais têm sido investigadas sob o nome de agrupamento fuzzy colaborativo. Com o objetivo de superar algumas das limitações encontradas em dois desses algoritmos, cinco novos algoritmos foram desenvolvidos nesse trabalho. Esses algoritmos foram estudados em dois cenários específicos de aplicação que levam em conta duas suposições sobre os dados (i.e., se os dados são de uma mesma npopulação ou de diferentes populações). Na prática, tais suposições e a dificuldade em se definir alguns dos parâmetros (que possam ser requeridos), podemn orientar a escolha feita pelo usuário entre os algoitmos diponíveis. Nesse sentido, exemplos ilustrativos destacam as diferenças de desempenho entre os algoritmos estudados e desenvolvidos, permitindo derivar algumas conclusões que podem ser úteis ao aplicar agrupamento fuzzy colaborativo na prática. Análises de complexidade de tempo, espaço, e comunicação também foram realizadas
2011
Luiz Fernando Sommaggio Coletta
Implementação de um cluster de computadores e desenvolvimento de seu sistema de gerenciamento
Nos últimos anos, clusters de computadores vêm ganhando popularidade, principalmente nos meios corporativos e académicos, como servidores Web, Isso se deve, principalmente, por eles oferecerem um custo/benefício bastante atraente. No entanto, esses clusters (conhecidos como Web Farms) possuem uma maior complexidade de gerenciamento e, principalmente os clusters de alta disponibilidade, necessitam de um monitoramento intensivo para manter os seus serviços sempre disponíveis. Este trabalho apresenta a implementação de um Web Farm Cluster e o desenvolvimento de um sistema de monitoramento e controle desse tipo de cluster (iCluster) utilizando a tecnologia de agentes de software. O sistema utiliza a tecnologia de agentes de software para implementar módulos de computação autónoma, permitindo dessa forma o monitoramento, o controle e a visualização de estados e serviços de um Web Farm Cluster com o mínimo de intervenção humana.
O problema da mochila compartimentada e aplicações
Este trabalho aborda o Problema da Mochila Compartimentada que é uma variação do clássico problema da mochila e pode ser enunciado considerando-se a seguinte situação hipotética: um alpinista deve carregar sua mochila com possíveis itens de seu interesse. A cada item atribui-se o seu peso e um valor de utilidade (até aqui, o problema coincide com o clássico Problema da Mochila). Entretanto, os itens são de agrupamentos distintos (alimentos, medicamentos, utensílios, etc.) e devem estar em compartimentos separados na mochila. Os compartimentos da mochila são flexíveis e têm capacidades limitadas. A inclusão de um compartimento tem um custo fixo que depende do agrupamento com que foi preenchido, além de introduzir uma perda da capacidade da mochila. O problema consiste em determinar as capacidades adequadas de cada compartimento e como esses devem ser carregados, maximizando o valor de utilidade total, descontado o custo de incluir compartimentos. Neste trabalho propomos um modelo de otimização não linear inteiro para o problema e algumas heurísticas para sua resolução, para as quais apresentamos os resultados computacionais obtidos. Uma aplicação prática que surge no corte de bobinas de aço, sujeito à laminação é detalhada.
2004
Fabiano do Prado Marques
Um método de otimização da relação desempenho/consumo de energia para arquiteturas multi-cores heterogêneas em FPGA
Devido às tendências de crescimento da quantidade de dados processados e a crescente necessidade por computação de alto desempenho, mudanças significativas estão acontecendo no projeto de arquiteturas de computadores. Com isso, tem-se migrado do paradigma sequencial para o paralelo, com centenas ou milhares de núcleos de processamento em um mesmo chip. Dentro desse contexto, o gerenciamento de energia torna-se cada vez mais importante, principalmente em sistemas embarcados, que geralmente são alimentados por baterias. De acordo com a Lei de Moore, o desempenho de um processador dobra a cada 18 meses, porém a capacidade das baterias dobra somente a cada 10 anos. Esta situação provoca uma enorme lacuna, que pode ser amenizada com a utilização de arquiteturas multi-cores heterogêneas. Um desafio fundamental que permanece em aberto para estas arquiteturas é realizar a integração entre desenvolvimento de código embarcado, escalonamento e hardware para gerenciamento de energia. O objetivo geral deste trabalho de doutorado é investigar técnicas para otimização da relação desempenho/consumo de energia em arquiteturas multi-cores heterogêneas single-ISA implementadas em FPGA. Nesse sentido, buscou-se por soluções que obtivessem o melhor desempenho possível a um consumo de energia ótimo. Isto foi feito por meio da combinação de mineração de dados para a análise de softwares baseados em threads aliadas às técnicas tradicionais para gerenciamento de energia, como way-shutdown dinâmico, e uma nova política de escalonamento heterogeneity-aware. Como principais contribuições pode-se citar a combinação de técnicas de gerenciamento de energia em diversos níveis como o nível do hardware, do escalonamento e da compilação; e uma política de escalonamento integrada com uma arquitetura multi-core heterogênea em relação ao tamanho da memória cache L1.
Simulação numérica direta de escoamento transicional sobre uma superfície contendo rugosidade
Em diversos escoamentos sobre superfícies há a presença de protuberâncias, como por exemplo rebites, parafusos e juntas. Estas protuberâncias podem influenciar a camada limite, acelerando a transição do escoamento do estado laminar para o estado turbulento. Em alguns casos isto pode ser indesejável, já que o escoamento turbulento implica necessariamente em uma força de atrito maior do que aquela referente ao escoamento laminar. Existem alguns aspectos neste tipo de escoamento que ainda não estão bem compreendidos. O objetivo deste trabalho é estudar a influência de uma rugosidade isolada no escoamento sobre uma superfície. Este estudo contribui para se entender o que ocorre em casos de maior complexidade. O estudo é de natureza computacional, em que se utiliza simulação numérica direta das equações de Navier-Stokes. A técnica de fronteiras imersas é utilizada para representar a rugosidade no escoamento sobre a superfície. O código numérico é verificado por meio do método de soluções manufaturadas. Comparações entre resultados experimentais, da teoria de estabilidade linear e numéricos também são utilizados para a validação do código. Resultados obtidos com diferentes alturas de rugosidade e variações no gradiente de pressão permitiram analisar a influência de elemento rugoso tridimensional em escoamentos de camada limite.
Estimação de obstáculos e área de pista com pontos 3D esparsos
De acordo com a Organização Mundial da Saúde,cerca de 1,2milhões de pessoas no mundo morrem em acidentes de trânsito. Sistemas de assistência ao motorista e veículos autônomos podem diminuir o número de acidentes. Dentre as várias demandas existentes para viabilizar essa tecnologia, sistemas computacionais de percepção ainda permanecem sem uma solução definitiva. Dois deles, detecção de obstáculos e de via navegável, normalmente fazem uso de algoritmos sofisticados como técnicas de aprendizado supervisionado, que mostram resultados impressionantes quando treinados com bases de dados bem definidas e diversificadas.Entretanto, construir, manter e atualizar uma base de dados com exemplos de vários lugares do mundo e em diversas situações é trabalhoso e complexo. Assim, métodos adaptativos e auto-supervisionados mostram-se como boas alternativas para sistemas de detecção do futuro próximo. Neste contexto, esta tese apresenta um método para estimar obstáculose via navegável através de sensores de baixo custo (câmeras estereoscópicas), sem o uso de técnicas de aprendizado de máquina e de diversas suposições normalmente utilizadas por trabalhos já disponíveis na literatura. Esses métodos utilizando sensor estereoscópico foram comparados fazendo uso de sensores do tipo 3D-LIDAR e mostraram resultados semelhantes. Este sistema poderá ser usado como uma fase pré-processamento de dados para melhorar ou viabilizar métodos adaptativos de aprendizado.
"Uma ferramenta baseada em aspectos para apoio ao teste funcional de programas Java"
A disponibilidade de ferramentas de teste de software propicia maior qualidade e produtividade para as atividades de teste. Diversas ferramentas têm sido propostas para o apoio ao teste estrutural, mas nota-se a falta de ferramentas que ofereçam suporte ao teste funcional e implementem os diversos critérios dessa técnica. Visando a preencher essa lacuna, uma ferramenta para apoio ao teste funcional de programas Java foi desenvolvida e é apresentada. A ferramenta apóia os principais critérios funcionais, tais como o Particionamento de Equivalência e Análise de Valor-limite, e oferece análise de cobertura baseada nos critérios da técnica funcional. A análise de cobertura é uma característica normalmente encontrada nas ferramentas que apóiam o teste estrutural, mas raramente disponível nas ferramentas que oferecem suporte ao teste funcional. O projeto da ferramenta é apresentado, no qual o conceito de separação de interesses é utilizado. A Programação Orientada a Aspectos é utilizada nas etapas de instrumentação e execução dos critérios de teste. O uso dessa técnica permite a separação clara entre o código de teste e o código do programa, assim como torna mais fácil a adição e remoção dos aspectos que implementam o teste, além de ser uma solução eficaz para o projeto da ferramenta. Um exemplo de uso da ferramenta é apresentado.
SystEM-PLA: um método sistemático para avaliação de arquitetura de linha de produto de software baseada em UML
A abordagem de linha de produto de software (LP) tem como objetivo principal promover a geração de produtos específicos de um determinado domínio com base na reutilização de uma infraestrutura central, chamada núcleo de artefatos. Um dos principais artefatos do núcleo de uma LP é a Arquitetura de LP (ALP), que representa a abstração de todas as arquiteturas de sistemas únicos que podem ser gerados, para um domínio específico. Avaliações de ALP são importantes, pois permitem aumentar a produtividade e a qualidade dos produtos da LP, bem como, seus resultados permitem a análise de metas de negócio e de retorno de investimento. Este trabalho propõe um método sistemático para avaliação de ALP, o SystEM-PLA (a Systematic Evaluation Method for Software Product Line Architectures). Tal método considera modelos de ALP em UML, por ser uma notação amplamente conhecida e consolidada. SystEM-PLA é composto por um metaprocesso de avaliação, diretrizes que guiam o usuário em como avaliar uma ALP e métricas básicas para modelos UML e atributos de qualidade. O método utiliza a abordagem SMarty (Stereotype-based Management of Variability), para gerenciar variabilidades em LP baseadas em UML. Análises de trade-off com o objetivo de priorizar atributos de qualidade para o desenvolvimento e evolução dos produtos de uma LP são realizadas com base na aplicação e coleta das métricas do SystEM-PLA em configurações de uma ALP. As métricas propostas para os atributos de qualidade complexidade e extensibilidade foram validadas por meio de um estudo experimental. Evidências indicaram a viabilidade de aplicação do método SystEM-PLA na indústria com base em um estudo experimental realizado com profissionais de uma empresa de grande porte no setor de desenvolvimento de software
2010
Edson Alves de Oliveira Junior
Service-oriented middleware for dynamic, real-time management of heterogeneous geosensors in flood management
Natural disasters such as floods, droughts and storms cause many deaths and a great deal of damage worldwide. Recently, several countries have suffered from an the increased number of floods. This has led government agencies to seek to improve flood risk management by providing historical data obtained from stationary sensor networks to help communities that live in hazardous areas. However, the sensor networks can only help to check specific features (e.g. temperature and pressure), and are unable to contribute significantly to supplying the missing information that is required. In addition to stationary sensors, mobile sensors have also been used to monitor floods since they can provide images and reach distances that are not within the coverage of stationary sensors. By combining these heterogeneous sensors, an initiative called Sensor Web Enablement (SWE) seeks to free these applications from the idiosyncrasies that affect the implementation of these heterogeneous sensors. However, SWE cannot always be applied effectively in a context where sensors are embedded and removed dynamically. This dynamic context makes it a complex task to handle, control, access and discover sensors. In view of this, the aim of this work is to dynamically manage heterogeneous sensors involved in flood risk management in near real-time, by enabling interoperable access to their data and using open and reusable components. To achieve this goal, a service-oriented middleware was designed that contains a common protocol message, a dynamic sensor management component and a repository. This approach was evaluated performed by employing an application that prioritizes geographically social media messages based on sensor data.
2015
Luiz Fernando Ferreira Gomes de Assis
Avaliação de atributos de testabilidade para sistemas de suporte à decisão
As organizações públicas e privadas são constantemente expostas a fatores internos e externos, que podem comprometer sua estabilidade diante das oscilações da economia e dos concorrentes. Nestas empresas, os tomadores de decisão são essenciais para analisar e avaliar todas as variáveis que envolvem estes fatores, com o objetivo de identificar o melhor caminho para os negócios. Entretanto, conseguir gerenciar os dados internos e externos à organização não é uma atividade simples. Neste contexto, os Sistemas de Suporte à Decisão (SSD) tornaram-se fundamentais para auxiliar os tomadores de decisão na solução de problemas mal estruturados ou sem nenhuma estruturação. Porém, a complexidade que envolve os projetos de implantação ou desenvolvimento de um SSD, geralmente compromete a efetividade dos testes que garantem a conformidade do sistema em relação às especificações previamente definidas. Uma solução para esse problema é considerar os atributos ou fatores de testabilidade nestes projetos, pois podem elevar o grau de eficácia e eficiência da atividade de teste e consequentemente contribuírem para redução do tempo e custos do projeto. Portanto, conseguir identificar esses atributos ou fatores que tenham influência na testabilidade dos SSD e algum método que permita analisar e avaliar o quanto estão presentes neste sistema, é essencial para aumentar a qualidade do sistema. Diante desta necessidade, este trabalho investigou e selecionou os principais fatores que podem influenciar no grau de testabilidade de um software e propôs um método para analisar e avaliar o quanto o SSD está considerando esses fatores em sua arquitetura. Com o objetivo de avaliar e validar o método de análise e avaliação, foram realizados testes de aplicabilidade em empresas de pequeno, médio e grande porte, bem como no meio acadêmico. Com os resultados obtidos nos testes, foi possível concluir que o método é específico para SSD, que pode ser usado como um guia durante o processo de desenvolvimento e auxiliar na classificação de SSD quanto a sua testabilidade.
2016
Marcos Fernando Geromini
Explorando Internet das Coisas e Inteligência Artificial no contexto de Saúde em Casas Inteligentes: uma abordagem física e emocional
Devido ao aumento da população idosa ou com limitações físicas/mentais é possível observar o crescimento de estudos na área de Internet das Coisas com o objetivo de monitorar a saúde e auxiliar no gerenciamento e melhora na qualidade de vida dessa parte da população. Nesse sentido, a abordagem baseada em Internet das Coisas aplicada em ambientes médicos e casas inteligentes tem o objetivo de fornecer conectividade entre o paciente e o ambiente ao seu redor, provendo mecanismos para ajudar em diagnósticos e prevenção de acidentes e/ou doenças. Nesse contexto surge a oportunidade de explorar sistemas computacionais para identificar o estado físico e emocional, em tempo real, de indivíduos com alguma limitação para monitorar a saúde; por exemplo, identificar o comportamento da rotina do usuário e emitir alertas aos familiares e/ou equipe médica sobre algum evento anormal ou identificar indícios de distúrbios emocionais. Ainda, com base na Inteligência Artificial é possível que sistemas computacionais possam aprender e se adaptar ao contexto que se encontra, por exemplo aprender e se adaptar a quantidade de exercícios e/ou estado emocional do usuário em determinadas situações, combinando conceitos tanto de Internet of Things quanto de Inteligência Artificial. Assim, este projeto tem como objetivo desenvolver e avaliar um modelo que possa: i.) identificar o estado físico e emocional do usuário; ii.) prover um mecanismo que possa monitorar de maneira inteligente as atividades do cotidiano do usuário e; iii.) explorar a abordagem de integração de dados com a utilização de múltiplos sensores IoT para uma melhor interação entre dispositivos computacionais no ambiente Health Smart Homes.
2019
Leandro Yukio Mano Alves
Uma abordagem para a integração de diferentes fontes de dados provenientes de redes de sensores no contexto de internet das coisas
Internet das Coisas (IoT) tem como principal característica a conexão em rede entre dispositivos como sensores, smartphones e wearables, com a finalidade de coletar informações dos ambientes físicos em que se encontram. Um desafio relacionado é a falta de padronização da comunicação entre dispositivos e de um mecanismo que realiza o processamento, armazenamento e recuperação de dados de forma simplificada, sendo, portanto, um grande desafio a interoperabilidade. Esta dissertação introduz o Internet of Things Data as a Service Module (IoTDSM), uma abordagem que baseia-se no modelo de Data as a Service (DaaS), que tem como objetivo auxiliar a gestão de fontes de dados de sensores heterogêneos, que independem da sua origem, formato ou sistema de banco de dados utilizado. Além disso, é apresentado o Internet of Things Multi-Protocol Message Broker (IoTM2B), uma extensão do IoTDSM que permite a integração com diferentes protocolos de comunicação utilizados em redes de sensores. Neste sentido, para avaliação desta pesquisa foi utilizado a metodologia de avaliação de desempenho, a qual contribuiu para a identificação das limitações dos mecanismos propostos. Além disso, neste trabalho diferentes cenários de avaliação foram conduzidas: (i) avaliação de desempenho do Middleware Global Sensor Network (GSN), que auxiliou na definição dos demais cenários de avaliação abordados; (ii) avaliação de desempenho IoTDSM utilizando diferentes sistemas de bancos de dados (PostgreSQL ou MongoDB) e formatos de dados (JSON ou XML), para o processamento de dados climáticos; (iii) avaliação de desempenho uma estratégia IoTM2B a qual permitiu a integração do IoTDSM com os protocolos HTTP, MQTT e CoAP em um ambiente de comunicação Machine-to-Machine (M2M) e Computação em Nuvem; e, (iv) avaliação de uma arquitetura que realiza a classificação de emoções de usuários em um ambiente de casa inteligente. Por fim, é feito uma discussão sobre os resultados obtidos, além de demonstrar a possibilidade da integração do IoTDSM e IoTM2B com diferentes formatos de dados, estratégias de armazenamento e protocolos de comunicação.
Agrupamento híbrido de dados utilizando algoritmos genéticos
Técnicas de Agrupamento vêm obtendo bons resultados quando utilizados em diversos problemas de análise de dados, como, por exemplo, a análise de dados de expressão gênica. Porém, uma mesma técnica de agrupamento utilizada em um mesmo conjunto de dados pode resultar em diferentes formas de agrupar esses dados, devido aos possíveis agrupamentos iniciais ou à utilização de diferentes valores para seus parâmetros livres. Assim, a obtenção de um bom agrupamento pode ser visto como um processo de otimização. Esse processo procura escolher bons agrupamentos iniciais e encontrar o melhor conjunto de valores para os parâmetros livres. Por serem métodos de busca global, Algoritmos Genéticos podem ser utilizados durante esse processo de otimização. O objetivo desse projeto de pesquisa é investigar a utilização de Técnicas de Agrupamento em conjunto com Algoritmos Genéticos para aprimorar a qualidade dos grupos encontrados por algoritmos de agrupamento, principalmente o k-médias. Esta investigação será realizada utilizando como aplicação a análise de dados de expressão gênica. Essa dissertação de mestrado apresenta uma revisão bibliográfica sobre os temas abordados no projeto, a descrição da metodologia utilizada, seu desenvolvimento e uma análise dos resultados obtidos.
Modelos de riscos aplicados à análise de sobrevivência
Assumir suposições especiais sobre a função de risco tem sido a estratégia adotada por vários autores, com intuito de garantir modelos gerais e abrangentes, tanto para a análise de dados de sobrevivência quanto de conDabilidade. Neste estudo, modelos aplicados a dados da área de sobrevivência e conDabilidade são considerados. A Dnalidade deste estudo é propor modelos mais Pexíveis e/ou mais abrangentes de forma a generalizar modelos já existentes, bem como estudar suas propriedades e propor possíveis comparações entre os modelos via testes de hipóteses. Considera-se nesta tese, três classes de modelos baseados na função de risco (modelos de risco). A primeira classe apresenta-se como um caso particular do modelo de risco estendido (Louzada-Neto, 1999), formada por modelos que relacionam o parâmetro de escala a covariáveis, sendo que esse relacionamento pode ser considerado log-linear ou log-nãolinear. Considera-se um modelo particular onde a dependência do parâmetro de escala se dá de forma log-não-linear. Na segunda classe considera-se modelos que estão vinculados a dados de riscos competitivos, quando se tem ou não informação sobre qual tipo de risco foi responsável pela falha de um equipamento ou pelo óbito de um paciente. A terceira classe de modelos foi proposta, nesta tese, relacionando o contexto de modelos de longa duração.
2006
Gleici da Silva Castro Perdona
Métodos de solução para o problema de escalonamento de médicos
O Problema de Escalonamento de Médicos (Physician Scheduling Problem) consiste em atribuir tarefas a médicos num horizonte de planejamento respeitando regras laborais, contratuais e de preferências pessoais de modo a satisfazer a demanda de serviços de um hospital. O problema lida majoritariamente com o objetivo de maximizar o atendimento dos requisitos de preferência pessoal, respeitando as restrições laborais e organizacionais. Sobre esta classe de problemas, vários métodos de resolução e suas variantes têm sido propostos na literatura. Ademais, mais características têm sido agregadas ao problema, tornando-o mais complexo e deste modo fazendo-se mais necessária a aplicação de métodos mais elaborados para a sua resolução. Neste trabalho são estudados, reformulados e propostos métodos de resolução baseados em programação matemática para tratar o problema de escalonamento acíclico de médicos em departamento de emergência de hospitais. O primeiro modelo tem como objetivo a minimização da soma ponderada dos desvios das restrições de distribuição. O segundo modelo tem como objetivo, a minimização do máximo dos desvios obtidos nas restrições de distribuição, a fim de se obter escalas mais equilibradas entre os médicos. Foram também propostas heurísticas baseadas na formulação matemática cujos resultados não foram competitivos com as dos modelos. Os modelos foram testados sobre um conjunto de instâncias fictícias resultantes de uma mescla entre instâncias benchmark e características do problema. Os resultados computacionais demonstram que formulação ponderada obteve solução ótima para grande parte das instâncias, embora os limitantes inferiores tenham sido majoritariamente fracos. Em relação ao segundo modelo, soluções ótimas não foram obtidas e os limitantes inferiores foram igualmente fracos. Relativamente a qualidade das escalas, o segundo modelo teve melhor comportamento comparando ao modelo de somas ponderadas. Dada a qualidade das soluções, nota-se a viabilidade da solução baseada em técnicas de otimização em detrimento da manual, pois esta ainda é mais suscetível de erros e acarreta um alto tempo para obtenção de solução.
2016
Valdemar Abrão Pedro Anastácio Devesse
Empregando técnicas de visualização de informação para transformação interativa de dados multidimensionais
A exploração de conjuntos de dados é um problema abordado com frequência em diversos domínios e tem como objetivo uma melhor compreensão de fenômenos simulados ou medidos. Tal atividade é precedida pelas etapas de coleta e armazenamento de dados que buscam registrar o máximo de detalhes sobre algum fenômeno observado. Porém, a exploração efetiva dos dados envolve uma série de desafios. Um deles é a dificuldade em identificar quais dados são realmente relevantes para as análises. Outro problema está relacionado com a falta de garantias de que os fatores fundamentais para a compreensão do problema tenham sido coletados. A transformação interativa de dados é uma abordagem que utiliza técnicas de visualização computacional para resolver ou minimizar esses problemas. No entanto, os trabalhos disponíveis na literatura possuem limitações, como interfaces demasiadamente complexas e mecanismos de interação pouco flexíveis. Assim, este projeto de mestrado teve como objetivo desenvolver novas técnicas visuais interativas para a transformação de dados multidimensionais. A metodologia desenvolvida se baseou no uso de biplots e na ação conjunta dos mecanismos de interação para superar as limitações das técnicas do estado da arte. Os resultados dos experimentos realizados sobre diversos conjuntos de dados dão indícios de que os métodos desenvolvidos possibilitam a obtenção de conjuntos de dados mais representativos. Mais especificamente, foram obtidos melhores resultados em tarefas de classificação de dados ao utilizar os métodos desenvolvidos.
2015
Francisco Morgani Fatore
Amostragem e medidas de qualidade de shapelets
Uma série temporal é uma sequência ordenada pelo tempo de valores reais. Dado que inúmeros fenômenos do dia-a-dia podem ser representados por séries temporais, há grande interesse na mineração de dados temporais, em especial na tarefa de classificação. Recentemente foi introduzida uma nova primitiva de séries temporais chamada shapelet, que é uma subsequência que permite a classificação de séries temporais de acordo com padrões locais. Na transformada shapelet estas subsequências se tornam atributos em uma matriz de distância que mede a dissimilaridade entre os atributos e as séries temporais. Para obter a transformada é preciso escolher alguns shapelets dos inúmeros possíveis, seja pelo efeito de evitar overfitting ou pelo fato de que é computacionalmente caro obter todos. Sendo assim, foram elaboradas medidas de qualidade para os shapelets. Tradicionalmente tem se utilizado a medida de ganho de informação, porém recentemente foi proposto o uso da f-statistic, e nós propomos neste trabalho uma nova denominada in-class transitions. Em nossos experimentos demonstramos que a inclass transitions costuma obter a melhor acurácia, especialmente quando poucos atributos são utilizados. Além disso, propomos o uso de amostragem aleatória nos shapelets para reduzir o espaço de busca e acelerar o processo de obtenção da transformada. Contrastamos a abordagem de amostragem aleatória contra uma em que só são exploradas shapelets de determinados tamanhos. Nossos experimentos mostraram que a amostragem aleatória é mais rápida e requer a computação de um menor número de shapelets. De fato, obtemos os melhores resultados ao amostrarmos 5% dos shapelets, mas mesmo a uma amostragem de 0,05% não foi possível notar uma degradação significante da acurácia.
2016
Lucas Schmidt Cavalcante
A noisy-channel based model to recognize words in eye typing systems
An important issue with eye-based typing iis the correct identification of both whrn the userselects a key and which key is selected. Traditional solutions are based on predefined gaze fixation time, known as dwell-time methods. In an attempt to improve accuracy long dwell times are adopted, which un turn lead to fatigue and longer response limes. These problems motivate the proposal of methods free of dwell-time, or with very short ones, which rely on more robust recognition techniques to reduce the uncertainty about user\'s actions. These techniques are specially important when the users have disabilities which affect their eye movements or use inexpensive eye trackers. An approach to deal with the recognition problem is to treat it as a spelling correction task. An usual strategy for spelling correction is to model the problem as the transmission of a word through a noisy-channel, such that it is necessary to determine which known word of a lexicon is the received string. A feasible application of this method requires the reduction of the set of candidate words by choosing only the ones that can be transformed into the imput by applying up to k character edit operations. This idea works well on traditional typing because the number of errors per word is very small. However, this is not the case for eye-based typing systems, which are much noiser. In such a scenario, spelling correction strategies do not scale well as they grow exponentially with k and the lexicon size. Moreover, the error distribution in eye typing is different, with much more insertion errors due to specific sources, of noise such as the eye tracker device, particular user behaviors, and intrinsic chracteeristics of eye movements. Also, the lack of a large corpus of errors makes it hard to adopt probabilistic approaches based on information extracted from real world data. To address all these problems, we propose an effective recognition approach by combining estimates extracted from general error corpora with domain-specific knowledge about eye-based input. The technique is ablçe to calculate edit disyances effectively by using a Mor-Fraenkel index, searchable using a minimun prfect hashing. The method allows the early processing of most promising candidates, such that fast pruned searches present negligible loss in word ranking quality. We also propose a linear heuristic for estimating edit-based distances which take advantage of information already provided by the index. Finally, we extend our recognition model to include the variability of the eye movements as source of errors, provide a comprehensive study about the importance of the noise model when combined with a language model and determine how it affects the user behaviour while she is typing. As result, we obtain a method very effective on the task of recognizing words and fast enough to be use in real eye typing systems. In a transcription experiment with 8 users, they archived 17.46 words per minute using proposed model, a gain of 11.3% over a state-of-the-art eye-typing system. The method was particularly userful in more noisier situations, such as the first use sessions. Despite significant gains in typing speed and word recognition ability, we were not able to find statistically significant differences on the participants\' perception about their expeience with both methods. This indicates that an improved suggestion ranking may not be clearly perceptible by the users even when it enhances their performance.
2018
Raíza Tamae Sarkis Hanada