RCAAP Repository

Data input and content exploration in scenarios with restrictions

As technology evolves, new devices and interaction techniques are developed. These transformations create several challenges in terms of usability and user experience. Our research faces some challenges for data input or content exploration in scenarios with restrictions. It is not our intention to investigate all possible scenarios, but we deeply explore a broad range of devices and restrictions. We start with a discussion about the use of an interactive coffee table for exploration of personal photos and videos, also considering a TV set as an additional screen. In a second scenario, we present an architecture that offers to interactive digital TV (iDTV) applications the possibility of receiving multimodal data from multiple devices. Our third scenario concentrates on supporting text input for iDTV applications using a remote control, and presents an interface model based on multiple input modes as a solution. In the last two scenarios, we continued investigating better ways to provide text entry; however, our restriction becomes not using the hands, which is the kind of challenge faced by severely motor-disabled individuals. First, we present a text entry method based on two input symbols and an interaction technique based on detecting internal and external heel rotations using an accelerometer, for those who keep at least a partial movement of a leg and a foot. In the following scenario, only the eyes are required. We present an eye-typing technique that recognizes the intended word by weighting length and frequency of all possible words formed by filtering extra letters from the sequence of letters gazed by the user. The exploration of each scenario in depth was important to achieve the relevant results and contributions. On the other hand, the wide scope of this dissertation allowed the student to learn about several technologies and techniques.

Year

2014

Creators

Diogo de Carvalho Pedrosa

Planejamento de trajetória para estacionamento de veículos autônomos

A navegação autônoma é um dos problemas fundamentais na área de robótica móvel. Esse problema vem sendo pesquisado nessa área por décadas e ainda apresenta um grande potencial para pesquisas científicas. A maior parte dos algoritmos e soluções desenvolvidas nessa área foi concebida para que robôs operem em ambientes estruturados. No entanto, outra questão de grande interesse para pesquisadores da área é a navegação em ambientes externos. Em ambientes não estruturado os veículos autônomos (robôs de grande porte) devem ser capazes de desviar de obstáculos, que eventualmente apareçam no caminho. Esta dissertação aborda o desenvolvimento de um sistema inteligente capaz de gerar e executar um planejamento de caminho para o estacionamento de veículos autônomos em ambientes semi-estruturados. O sistema é capaz de reconhecer vagas de estacionamento por meio de sensores instalados no veículo, gerar uma trajetória válida que o conduza até a vaga e enviar os comandos de esterçamento e aceleração que guiam o veículo pelo caminho gerado

Year

2013

Creators

Marcos Gomes Prado

Modelos autorregressivos periódicos para previsão e geração de séries de vazões médias mensais

Este trabalho aborda o problema de modelagem de séries de vazões médias mensais visando previsão e geração de séries sintéticas. Destaca-se que a importância da previsão de valores futuros das séries mensais de vazões assim como a geração de séries sintéticas são fundamentais para o planejamento da operação de sistemas hidroelétricos brasileiros. Estas séries possuem um comportamento periódico na média, na variância e na função de autocorrelação e, portanto, considera-se para a série padronizada os modelos autorregressivos periódicos PAR(pm). Em relação a previsão clássica, a análise do erro de previsão e feita em função do horizonte de previsão. Neste estudo, os erros de previsão são calculados, na escala original da série de vazão, em função dos parâmetros dos modelos ajustados e avaliados para horizontes de previsão h variando de 1 a 12 meses. Estes erros são comparados com as estimativas das variâncias das vazões para o mês que está sendo previsto. Em relação à previsão bayesiana, adota-se os modelos Normal, Log-Normal e t-Student nos processos de estimação e, após, é realizado um estudo da perfomance destes modelos usando o erro quadrático médio, erro absoluto médio e erro percentual absoluto médio. Em relação à geração de séries sintéticas de vazões, um modelo multivariado Log-Normal com três parâmetros e um modelo Log-Normal generalizado foram desenvolvidos. As séries geradas são comparadas com as séries históricas reais utilizando o critério de Kullback-Leibler. Como resultado, tem-se uma avaliação da capacidade de previsão, em meses, dos modelos ajustados para cada mês e a escolha do modelo Log-Normal nos procedimentos de análise bayesiana. Além disso, o modelo utilizado para a geração de séries sintéticas de vazões mensais forneceu evidências que o apontam como uma alternativa ao modelo amplamente adotado no setor elétrico brasileiro para geração de séries de vazões

Year

2013

Creators

Ricardo Luis dos Reis

"Solução de sistemas lineares esparsos - aplicação à programação de lotes e cortes"

Neste trabalho é apresentada uma revisão do método simplex com geração de colunas e sua aplicação ao problema de corte de estoque. É apresentado o problema combinado, que acopla os problemas de dimensionamento de lotes e de corte de estoque, incluindo uma formulação matemática deste problema. Em seguida consideramos algumas propriedades da matriz de restrições e como construir uma base esparsa para ela, utilizando um reordenamento estático das colunas básicas. Resultados numéricos de uma implementação em MATLAB que realiza trocas de colunas da base e verifica sua esparsidade, simulando o método simplex são apresentados. Após uma troca de colunas básicas, estas são atualizadas de forma eficiente, de modo que cause o menor preenchimento da matriz. Foram realizados também testes computacionais para verificar a robustez do método, através de operações inversas à decomposição e comparação com as colunas originais. Concluímos que a proposta de construção da base estática esparsa leva a bons resultados computacionais com relação à velocidade e robustez em comparação com abordagens que não consideram a estrutura esparsa da matriz de restrições.

Year

2003

Creators

Glaucia Maria Bressan

Análise da disseminação de dados em redes FANET

Os veículos aéreos não tripulados (VANTs) vêm apresentando destaque crescente no setor aeronáutico mundial, tanto no desenvolvimento dos mesmos quanto nas diferentes aplicações desses veículos, devido ao seu grande potencial de utilização. Em muitas aplicações, a utilização de múltiplos VANTs apresenta várias vantagens sobre um VANT sozinho. No entanto, o agrupamento pode experimentar problemas inerentes à comunicação sem fio, podendo originar novos problemas como inviabilizar a coordenação e a execução cooperativa de uma missão, por exemplo. Em um cenário não colaborativo, VANTs com algum nível de autonomia e que partilhem do mesmo espaço aéreo também deverão ser capazes de trocar informações entre si, principalmente informações sobre posicionamento e rota de voo, e também estarão suscetíveis aos distúrbios da comunicação sem fio. Para balancear as vantagens e as desvantagens, esses robôs precisarão se comunicar cientes das restrições e utilizando a rede de modo otimizado, por meio da aplicação de algoritmos que equilibrem adequadamente técnicas de difusão de informações e técnicas de mitigação de retransmissões. Neste projeto de doutorado foi feita a investigação sobre o método de disseminação de dados, por meio de broadcasting, em uma rede móvel ad hoc entre VANTs, denominada Flying Ad hoc Networks (FANETs). FANETs são um novo paradigma que pode superar as restrições de missões de um único VANT. As FANETs são compostas por vários VANTs que cooperam para realizar alguma missão crítica (por exemplo, uma missão de busca e resgate). Para manter a coordenação, todos os VANTs devem continuamente enviar ou retransmitir mensagens através do canal sem fio para garantir que todos os membros da rede saibam o estado da rede. Geralmente, a troca de dados necessários para manter a sincronização da missão exige o uso de broadcast para que todos os membros da rede possam recebê-los. No entanto, quando essa troca de mensagens é feita arbitrariamente, isso pode causar o problema da tempestade de broadcast (BSP), levando o meio sem fio a um estado inoperante. Apesar de alguns esforços relatados na literatura para o provimento de técnicas gerais de mitigação do problema BSP, o desafio de agregar novas informações ou conhecimento a receptores que estejam voando, ao invés de apenas espalhar os dados na rede, tem recebido menos atenção. Nesta tese, além de demonstrar que o problema BSP intensifica a contenção de rede à medida que o número de VANTs aumenta, também foi criado um método que se prova mais eficiente que os existentes até então. Tal técnica, denominada de Algoritmo Baseado em Vizinhança Dinâmica para o Problema da Tempestade de Broadcast (DNA-BSP), foi desenvolvida e validada com base em experimentos de mundo real e em simulações computacionais. Ele pode mitigar o problema BSP, que é um desafio real nas FANETs, reduzindo a redundância de mensagens em mais de 98% e tornando a entrega de mensagens 99,5% mais rápida do que no cenário de flooding, superando as técnicas gerais de mitigação do BSP quando aplicado em FANETs. Os resultados detalhados neste texto também poderão orientar trabalhos futuros ao fornecer informações úteis para o planejamento e otimização de redes ad hoc móveis para VANTs.

Year

2019

Creators

Rayner de Melo Pires

Contribuições ao ensino de teste de software com o modelo flipped classroom e um agente conversacional

Teste de software é uma atividade do processo de desenvolvimento de software que busca revelar os defeitos presentes no software. Apesar dos constantes avanços e surgimento de diferentes modelos pedagógicos, este assunto continua sendo ensinado com o modelo tradicional de ensino. A comunidade de educação em computação vem investigando a aplicação de diferentes modelos pedagógicos e, nessa perspectiva, emerge o modelo pedagógico flipped classroom como uma interessante solução. Estudos mencionam sobre a necessidade de investigá-lo, buscando reconhecer seu potencial no ensino de um determinado conteúdo. Além disso, implementar o modelo exige uma intensificação de esforços para o professor, pois ele precisará planejar atividades e mecanismos de apoio ao ensino para cada um dos momentos previstos pelo modelo. Trabalhos relatam que os alunos durante o momento de estudo antes da aula podem ter dificuldade em entender aspectos teóricos sobre o conteúdo, pois esse pode ter conceitos que podem gerar dupla interpretação. Este trabalho de mestrado tem o propósito de contribuir com o ensino de teste de software, investigando o impacto do modelo flipped classroom no ensino de teste de software. O projeto também propõe uma abordagem de apoio ao planejamento e implantação desse modelo e analisa o uso de um agente conversacional como mecanismo de apoio ao flipped classroom. Estudos experimentais foram realizados visando entender o impacto do modelo no processo de aprendizado de teste de software. Na sequência, foram analisados conteúdos de teste de software ensinados em cursos de computação no Brasil, definidos objetivos de aprendizagem para esses conteúdos, selecionados mecanismos de apoio e atividades para contemplar os três momentos previstos pelo modelo e implementado um mecanismo para apoiar a implantação do modelo flipped classroom no ensino de teste. Por fim, um agente conversacional foi proposto e investigado no contexto de uma aula de teste de software em que o modelo flipped classroom foi utilizado. Os resultados deste trabalho indicam que o modelo flipped classroom permite que os alunos tenham melhores resultados no aprendizado, especialmente quando há realização de atividades práticas. Os alunos revelaram que preferem este modelo em detrimento ao tradicional. No entanto, o modelo produz uma carga de trabalho maior para o aluno. Por fim, o uso do agente conversacional como um mecanismo de apoio durante o momento antes da aula indica sua relevância para o flipped classroom.

Year

2019

Creators

Leo Natan Paschoal

Uma integração dos problemas de empacotamento de peças irregulares e de caminho mínimo de corte 

Presente em diversos processos industriais, que variam desde pequenas confecções até grandes indústrias da área de metal-mecânica, os problemas de empacotamento visam definir o posicionamento de itens menores sobre objetos maiores minimizando, frequentemente, a perda de material utilizado. O problema de empacotamento de peças irregulares em faixas, estudado nesta pesquisa, tem como principal característica, e obstáculo, possuir itens irregulares. Em algumas indústrias surge, após a determinação do empacotamento, um segundo problema: a determinação do caminho mínimo de corte. Embora a solução do primeiro influencie fortemente a resolução do segundo, não é de nosso conhecimento que existam, até o momento, estratégias que integrem esses problemas. Neste trabalho, são propostos dois modelos integrados de empacotamento de peças irregulares e caminho de corte. O primeiro modelo busca minimizar o caminho de corte entre as peças considerando um ponto fixo de início de corte (vértice fixo) para cada peça, enquanto que o segundo considera o corte por peça a partir de um vértice qualquer das peças. Testes computacionais mostram que é vantajosa a integração dos problemas contudo, como ambos são problemas de difícil solução, o problema integrado é pelo menos tão difícil quanto os problemas isolados, logo apenas instâncias de pequeno porte foram resolvidas de forma exata. Uma matheurística, baseada no algoritmo genético de chaves aleatórias viciadas, é proposta para o problema de empacotamento de peças irregulares em faixa em domínio contínuo e, em seguida, estendida para o problema integrado. Os resultados são promissores, pois a matheurística consegue encontrar solução para instâncias que não haviam sido resolvidas através dos modelos integrados previamente propostos.

Year

2019

Creators

Larissa Tebaldi de Oliveira

Métodos para o pré-processamento e mineração de grandes volumes de dados multidimensionais e redes complexas

A mineração de dados é um processo computacionalmente caro, que se apoia no pré-processamento dos dados para aumentar a sua eficiência. As técnicas de redução de elementos do conjunto de dados, principalmente a amostragem de dados se destacam no pré-processamento. Os dados reais são caracterizados pela não uniformidade da distribuição, grande quantidade de atributos e presença de elementos considerados ruídos. Para esse tipo de dado, a amostragem uniforme, na qual cada elemento tem a mesma probabilidade de ser escolhido, é inefiiente. Os dados nos últimos anos, vem passando por transformações. Assim, não só o seu volume tem aumentado significantemente, mas também a maneira de como eles são representados. Os dados usualmente são divididos apenas em dados tradicionais (número e pequenas cadeias de caracteres) e dados complexos (imagens, cadeias de DNA, vídeos, etc). Entretanto, uma representação mais rica, na qual não só os elementos do conjunto são representados mas também a suas ligações, vem sendo amplamente utilizada. Esse novo tipo de dado, chamado rede complexa, fez surgir uma nova área de pesquisa chamada mineração de redes complexas ou de grafos, já que estes são utilizados na representação das redes complexas. Para esta nova área é necessário o desenvolvimento de técnicas que permitam a mineração de grandes redes complexas, isto é, redes com centenas de milhares de elementos(nós) e ligações(arestas). Esta tese teve como objetivo explorar a redução de elementos em conjuntos de dados chamados desbalanceados, isto é, que possuem agrupamentos ou classes de tamanhos bastantes distintos, e que também possuam alta quantidade de atributos e presença de ruídos. Além disso, esta tese também explora a mineração de redes complexas com a extração de padrões e propriedades e o desenvolvimento de algoritmos eficientes para a classificação das redes em reais e sintéticas. Também é proposto a mineração de redes complexas utilizando gerenciadores de base de dados para a mineração de cliques de tamanho 4 e 5 e a apresentação da extensão do coeficiente de clusterização

Year

2010

Creators

Ana Paula Appel

WSARCH: Uma arquitetura para a provisão de web services com qualidade de serviço

Esta tese tem como objetivo o projeto e implementação de uma arquitetura orientada a serviços, denominada WSARCH - Web Services Architecture, que possibilita acesso a Web Services com Qualidade de Serviço (QoS). Os atributos de QoS que devem ser considerados, visando à avaliação de desempenho deWeb services e a obtenção de QoS em uma arquitetura orientada a serviços, são identificados e discutidos. Esses atributos de QoS são mapeados para os componentes participantes de uma arquitetura orientada a serviços que incorpora qualidade de serviço. A arquitetura proposta prevê a monitoração dos provedores de serviços e um módulo que utiliza os dados obtidos para a localização do serviço apropriado. Visando a validação da arquitetura proposta e dos atributos definidos desenvolveu-se um protótipo da WSARCH. O protótipo desenvolvido permite que estudos de avaliação de desempenho sejam realizados considerando os diferentes componentes da arquitetura, algoritmos, protocolos e padrões. A proposta da WSARCH se insere em um contexto em que é importante definir como deve ser projetada uma arquitetura SOA com foco em desempenho, uma vez que a correta caracterização do que avaliar, e como avaliar, se faz necessário. Nesta tese, a avaliação de desempenho está focada nas diferentes entidades que participam de uma arquitetura orientada a serviço: cliente, provedor e os demais participantes

Year

2010

Creators

Júlio Cezar Estrella

Mapeamento de ambientes externos utilizando robôs móveis

A robótica móvel autônoma é uma área relativamente recente que tem como objetivo a construção de mecanismos capazes de executar tarefas sem a necessidade de um controlador humano. De uma forma geral, a robótica móvel defronta com três problemas fundamentais: mapeamento de ambientes, localização e navegação do robô. Sem esses elementos, o robô dificilmente poderia se deslocar autonomamente de um lugar para outro. Um dos problemas existentes nessa área é a atuação de robôs móveis em ambientes externos como parques e regiões urbanas, onde a complexidade do cenário é muito maior em comparação aos ambientes internos como escritórios e casas. Para exemplificar, nos ambientes externos os sensores estão sujeitos às condições climáticas (iluminação do sol, chuva e neve). Além disso, os algoritmos de navegação dos robôs nestes ambientes devem tratar uma quantidade bem maior de obstáculos (pessoas, animais e vegetações). Esta dissertação apresenta o desenvolvimento de um sistema de classificação da navegabilidade de terrenos irregulares, como por exemplo, ruas e calçadas. O mapeamento do cenário é realizado através de uma plataforma robótica equipada com um sensor laser direcionado para o solo. Foram desenvolvidos dois algoritmos para o mapeamento de terrenos. Um para a visualização dos detalhes finos do ambiente, gerando um mapa de nuvem de pontos e outro para a visualização das regiões próprias e impróprias para o tráfego do robô, resultando em um mapa de navegabilidade. No mapa de navegabilidade, são utilizados métodos de aprendizado de máquina supervisionado para classificar o terreno em navegável (regiões planas), parcialmente navegável (grama, casacalho) ou não navegável (obstáculos). Os métodos empregados foram, redes neurais artificais e máquinas de suporte vetorial. Os resultados de classificação obtidos por ambos foram posteriormente comparados para determinar a técnica mais apropriada para desempenhar esta tarefa

Year

2010

Creators

Alberto Yukinobu Hata

Bridging software engineering gaps towards system of systems development

While there is a growing recognition of the importance of System of Systems (SoS), there is still little agreement on just what they are or on by what principles they should be constructed. Actually, there are numerous SoS definitions in the literature. The difficulty in specifying what are the constituent systems, what they are supposed to do, and how they are going to do it frequently lead SoS initiatives to complete failures. Guided by a sample SoS that comprises all the distinguishing SoS characteristics and a generic SoS Engineering (SoSE) process, this thesis explores the SoS development from different Software Engineering (SE) perspectives that include requirements, analysis, design, and reengineering. For the Requirements Engineering (RE), we propose a scene-based RE approach to describe the SoS progressively as an arrangement of elementary but meaningful related behaviors named scenes. The objective is making easier the description and the understanding of the SoS dynamism. For the analysis, we propose extensions to statecharts to visually improve the modeling of systems interactions. They are symbolic notations that result from an analogy with multi-layer Printed Circuit Boards (PCB). The resulting diagrams are named PCBstatecharts. For the design, we propose an extension to the conventional SPLE process in such a way that SPL can become a natural source of SoS members. Domain engineering is extended to deliver components able to share abilities in SoS environments. Then, application engineers can design families of products that comply with different SoS requirements and still improve their products using the abilities of other SoS members. For the reengineering, we propose an approach extension to evolve legacy systems to SPL and then to SoS members. We demonstrate that when legacy systems are reengineered properly, they can share useful abilities, work cooperatively, and compose SoS

Year

2014

Creators

Marcelo Augusto Ramos

Utilização de objetos de aprendizagem para melhoria da qualidade do ensino de hierarquia de memória

O ensino e a aprendizagem do tema hierarquia de memória não são tarefas simples, pois muitos assuntos que são abordados em teoria podem desmotivar a aprendizagem em virtude de sua complexidade. Este projeto de mestrado apresenta a transformação do módulo de memória cache da ferramenta Amnesia em um objeto de aprendizagem, que visa facilitar a construção do conhecimento através da simulação da estrutura e da funcionalidade da hierarquia de memória na arquitetura von Neumann de uma maneira mais prática e didática. Este processo permitiu que funcionalidades existentes na ferramenta fossem readequadas e novas funcionalidades desenvolvidas. Aliado a isso, planos de aula e questionários de avaliação e usabilidade também foram concebidos, validados e implementados junto à elaboração de um tutorial para descrever o funcionamento do novo objeto. Os estudos experimentais realizados analisaram dois aspectos: o primeiro, se o objeto de aprendizagem melhorou, de fato, a aprendizagem dos alunos no assunto memória cache; o segundo, a opinião dos alunos em relação à utilização do objeto. Após a análise e avaliação dos resultados obtidos nos experimentos, foi possível demonstrar uma evolução na aprendizagem quando se fez o uso do objeto, além de se perceber que a motivação dos alunos em utilizar outros objetos de aprendizagem aumentou.

Year

2015

Creators

Fernando Tiosso

O conceito de estabilizabilidade fraca para sistemas lineares com saltos Markovianos

Este trabalho introduz os conceitos de controlabilidade fraca e estabilizabilidade fraca para sistemas lineares com parâmetros sujeitos a saltos Markovianos a tempo discreto. É, inicialmente, construída uma coleção de matrizes C que se assemelha às matrizes de controlabilidade de sistemas lineares deterministicos. Essa coleção de matrizes C nos permite definir um conceito de controlabilidade fraca, requerendo que elas sejam de posto completo, assim como introduzir um conceito de estabilizabilidade fraca, dual ao conceito de detetabilidade fraca encontrado na literatura de sistemas com saltos de Markov. Uma característica importante do conceito de estabilizabilidade fraca é a de generalizar o conceito de estabilizabilidade na média quadrática, anteriormente encontrado na literatura. O papel do conceito da estabilizabilidade fraca no problema de filtragem é investigado através de casos de estudo. Estes casos de estudo são desenvolvidos no contexto do filtro de Kalman com observação do parâmetro de Markov e sugerem que a estabilizabilidade fraca em conjunto com a detetabilidade na média quadrática garantem que o estimador seja estável na média quadrática.

Year

2006

Creators

Amanda Liz Pacífico Manfrim

Influências de políticas de escalonamento no desempenho de simulações distribuídas

Este trabalho analisa o impacto causado no desempenho de uma simulação distribuída quando técnicas de particionamento convencionais são empregadas. Essas técnicas não levam em conta informações inerentes ao estado da simulação. Pelo fato da execução de uma simulação também estar sujeita a sofrer interferências da plataforma, informações sobre a potência computacional de cada recurso utilizado e sobre o tipo de simulação, podem ser aplicadas em seu particionamento. Foram utilizadas informações estáticas, geradas através da avaliação da plataforma com benchmarks, e dinâmicas, obtidas através de índices de carga. Os resultados obtidos da utilização destas técnicas se mostram atrativos, principalmente quando o objetivo é a execução das simulações em ambientes que não disponibilizam políticas de escalonamento específicas e sim políticas convencionais. Nos estudos de casos avaliados, observaram-se ganhos satisfatórios, como a redução de até 24% do tempo de execução, um aumento de até 22% de eficiência e 79% menos rollbacks causados. Percebe-se que dependendo do tempo que se dispõe e dos objetivos pretendidos, as técnicas convencionais podem ser empregadas em simulações distribuídas. Este trabalho também contribui com o aperfeiçoamento das duas ferramentas utilizadas: WARPED e AMIGO. Uma interface de comunicação entre as duas ferramentas foi desenvolvida, ampliando assim seus campos de utilização.

Year

2006

Creators

Bárbara Lopes Voorsluys

Um simulador para modelos de larga escala baseado no padrão scalable simulation framework (ssf)

Esta dissertação apresenta uma proposta de um simulador de modelos de larga escala para o Ambiente de Simulação Distribuída Automático (ASDA), uma ferramenta que facilita a utilização e o desenvolvimento de simulação distribuída e que vem sendo objeto de pesquisas e estudos no Laboratório de Sistemas Distribuídos e Programação Concorrente (LaSDPC) do ICMC-USP. Tal simulador permite ao ASDA a construção de modelos e programas que simulam modelos de redes de filas de larga escala, operações estas que tornam a ferramenta ainda mais completa. O simulador é baseado no padrão público para simulação distribuída de larga escala denominado Scalable Simulation Framework (SSF). O protótipo do simulador desenvolvido é constituído de um programa cliente-servidor, mas podem ser observados três componentes principais: um compilador, que traduz os modelos escritos em linguagem de modelagem para linguagem C++; o módulo SSF que define a API utilizada pelos programas de simulação; e um módulo de execução, que executa os programas de simulação, analisa os resultados e os repassa para um gerador de relatórios. O simulador contribui ainda com mais estudos acerca de simulação, simulação distribuída e modelagem de sistemas utilizando as ferramentas desenvolvidas pelo grupo

Year

2007

Creators

Alexandre Nogueira Jahnecke

Um data warehouse de publicações científicas: indexação automática da dimensão tópicos de pesquisa dos data marts

Este trabalho de mestrado insere-se no contexto do projeto de uma Ferramenta Inteligente de Apoio à Pesquisa (FIP), sendo desenvolvida no Laboratório de Inteligência Computacional do ICMC-USP. A ferramenta foi proposta para recuperar, organizar e minerar grandes conjuntos de documentos científicos (na área de computação). Nesse contexto, faz-se necessário um repositório de artigos para a FIP. Ou seja, um Data Warehouse que armazene e integre todas as informações extraídas dos documentos recuperados de diferentes páginas pessoais, institucionais e de repositórios de artigos da Web. Para suportar o processamento analítico on-line (OLAP) das informações e facilitar a ?mineração? desses dados é importante que os dados estejam armazenados apropriadamente. Dessa forma, o trabalho de mestrado teve como objetivo principal projetar um Data Warehouse (DW) para a ferramenta FIP e, adicionalmente, realizar experimentos com técnicas de mineração e Aprendizado de Máquina para automatizar o processo de indexação das informações e documentos armazenados no data warehouse (descoberta de tópicos). Para as consultas multidimensionais foram construídos data marts de forma a permitir aos pesquisadores avaliar tendências e a evolução de tópicos de pesquisa

Year

2007

Creators

Augusto Kanashiro

Estudos e avaliações de compiladores para arquiteturas reconfiguráveis

Com o aumento crescente das capacidades dos circuitos integrado e conseqüente complexidade das aplicações, em especial as embarcadas, um requisito tem se tornado fundamental no desenvolvimento desses sistemas: ferramentas de desenvolvimento cada vez mais acessíveis aos engenheiros, permitindo, por exemplo, que um programa escrito em linguagem C possa ser convertido diretamente em hardware. Os FPGAs (Field Programmable Gate Array), elemento fundamental na caracterização de computação reconfigurável, é um exemplo desse crescimento, tanto em capacidade do CI como disponibilidade de ferramentas. Esse projeto teve como objetivos: estudar algumas ferramentas de conversão C, C++ ou Java para hardware reconfigurável; estudar benchmarks a serem executadas nessas ferramentas para obter desempenho das mesmas, e ter o domínio dos conceitos na conversão de linguagens de alto nível para hardware reconfigurável. A plataforma utilizada no projeto foi a da empresa Xilinx XUP V2P

Year

2007

Creators

Joelmir José Lopes

Ativação de componentes de software com a utilização de uma ontologia de componentes

Atualmente, existem muitos estudos para agregar mais valor às informações disponíveis na Web visando melhorar os resultados da interação dos usuários com a Web; uma das linhas de estudo é a Web Semântica, que propõe a adição de informação semântica à Web atual por meio de ontologias. A organização internacional que define os padrões para a Web (W3C) já propôs vários padrões para tornar a Web Semântica viável, porém, além de padrões, também é preciso criar ou adaptar ferramentas que explorem as suas potencialidades. Uma ferramenta que dá um suporte significativo para a Web atual e que pode ser adaptada para trabalhar com a Web Semântica é o Servidor de Aplicações. Com adição de informações semânticas, na forma de ontologias, tem-se um Servidor de Aplicações Baseado em Ontologias (OBAS). Neste trabalho foi desenvolvido um sistema protótipo para oferecer as características mínimas de um OBAS, e desta forma, foram investigadas as tecnologias para a Web Semântica que viabilizassem uma solução de acordo com os padrões recomendados pela W3C. Os componentes de software de um OBAS têm suas propriedades e comportamentos relacionados de forma semântica usando-se ontologias. Como uma ontologia é um modelo conceitual explícito, suas descrições dos componentes podem ser consultadas e inferidas, melhorando o desempenho do servidor através da combinação dos componentes mais apropriados a uma tarefa, da simplificação da programação, pois não é mais necessário saber todos os detalhes de um componente para ativá-lo

Year

2007

Creators

Augusto Carbol Lorza

Segmentação da estrutura cerebral hipocampo por meio de nuvem de similaridade

O hipocampo é uma estrutura cerebral que possui importância primordial para o sistema de memória humana. Alterações no seus tecidos levam a doenças neurodegenerativas, tais como: epilepsia, esclerose múltipla e demência, entre outras. Para medir a atrofia do hipocampo é necessário isolá-lo do restante do cérebro. A separação do hipocampo das demais partes do cérebro ajuda aos especialistas na análise e o entendimento da redução de seu volume e detecção de qualquer anomalia presente. A extração do hipocampo é principalmente realizada de modo manual, a qual é demorada, pois depende da interação do usuário. A segmentação automática do hipocampo é investigada como uma alternativa para contornar tais limitações. Esta dissertação de mestrado apresenta um novo método de segmentação automático, denominado Modelo de Nuvem de Similaridade (Similarity Cloud Model - SimCM). O processo de segmentação é dividido em duas etapas principais: i) localização por similaridade e ii) ajuste de nuvem. A primeira operação utiliza a nuvem para localizar a posição mais provável do hipocampo no volume destino. A segunda etapa utiliza a nuvem para corrigir o delineamento final baseada em um novo método de cálculo de readequação dos pesos das arestas. Nosso método foi testado em um conjunto de 235 MRI combinando imagens de controle e de pacientes com epilepsia. Os resultados alcançados indicam um rendimento superior tanto em efetividade (qualidade da segmentação) e eficiência (tempo de processamento), comparado com modelos baseados em grafos e com modelos Bayesianos. Como trabalho futuro, pretendemos utilizar seleção de características para melhorar a construção da nuvem e o delineamento dos tecidos

Year

2011

Creators

Fredy Edgar Carranza Athó

Test orales for systems with complex outputs: the case of TTS systems

Software testing is one of the most important Software Engineering processes, being the primary activity to check the conformance between the software requirements and its actual behavior. The automation of software testing activities is essential to certify productivity and effectiveness in such activities. Test automation leads testing activities to be conducted under systematic and accurate criteria, raising the chance of testers to reveal faults or inconsistencies. Test oracles are elementary members in software testing automation, being the mechanism responsible for indicating the correctness of software outputs. In testing environments, test oracles can be effectively implemented based on several sources of information about the Software Under Testing (SUT): software specifications, assertions, formal methods (Finite State Machines (FSM), formal specifications, etc, machine-learning methods, and metamorphic relations. Regardless of the implementation strategy, test oracles are vulnerable to false positive/negative verdicts, configuring what the literature describes as the oracle problem. Therefore, test oracles are a non-trivial and challenging object of studies of the software engineering research area. SUTs outputs in unusual formats make it harder the oracle problem. Audio, images, three-dimensional objects, virtual reality environments, complex statistical compositions, etc, are examples of non-trivial output formats. In the software testing context, SUTs with unusual outputs can be called complex-output systems. In this doctorate dissertation, we propose and evaluate a novel test oracle approach for complex-output systems called feature-based test oracles. The purpose of feature-based test oracles is the appropriation of a processing image technique called Content-Based Image Retrieval (CBIR) to collect information from features extracted from the SUTs outputs to compose test oracles. Given a query image, CBIR combines feature extraction and similarity functions to alleviate the problem of searching for digital images in large databases. In previous research, we have integrated CBIR concepts in a testing framework to support the automation of testing activities in processing image systems and systems with Graphical User Interfaces (GUI). In this doctorate dissertation, we extended that framework and its concepts to general complex-output systems, addressing the feature-based test oracle approach. We use Text-To-Speech (TTS) systems to validate empirically our test oracle technique. Through the results of five empirical analyses, three of them conducted in line with problems of a real-world industry TTS system, show the proposed technique is a valuable instrument to automate testing activities and alleviate practitioners efforts on testing complex output systems. We conclude the proposed test oracles are effective because they systematically evaluate the SUTs sensorial output rather than produce verdicts based on subjective specifications. As future work, we plan to conduct investigations towards the reduction of false positives/negatives and the association of the test oracles with machine learning techniques and metamorphic relations.

Year

2017

Creators

Rafael Alves Paes de Oliveira