Repositório RCAAP
Computação em nuvem elástica auxiliada por agentes computacionaise baseada em histórico para web services
A gestão eficaz de recursos computacionais em nuvem está diretamente ligada a gerir corretamente o desempenho das aplicações hospedadas na Máquina Virtual (Virtual Machine - VM), criando um ambiente capaz de controlá-la e redimensionar recursos de Memória, Disco, CPU e outros que se façam necessários, individualmente em resposta a carga de trabalho. Neste trabalho considera-se também a gestão eficaz a qual é possível realizar o retorno sobre o investimento realizado para a contratação do serviço de IaaS. Nesta pesquisa de mestrado, foi proposto o gerenciamento da infraestrutura computacional em nuvem, através de dois modelos que facilitam o provisionamento auto-adaptativo de recursos em um ambiente virtualizado: alocação de recursos utilizando modelo para previsão da carga de trabalho futura e a gestão auto-adaptativa de capacidade utilizando agentes computacionais para monitorarem constantemente as VMs. Além disso, é proposto o retorno do investimento, que trata a relação entre o valor que o cliente contratou do serviço de IaaS e o quanto efetivamente ele está utilizando. Desta forma, a cada período é contabilizado a taxa do valor gasto em unidades monetárias. Para contemplar esta proposta, foram desenvolvidos algoritmos que são o núcleo de todo gerenciamento. Também foram realizados experimentos e os resultados mostram a capacidade do autogerenciamento das máquinas virtuais, com reconfiguração dinâmica da infraestrutura através de previsões baseadas em histórico e também da reconfiguração e monitoramento com o uso de agentes computacionais. Após a análise e avaliação dos resultados obtidos nos experimentos, é possível afirmar que houve uma significativa melhora da reconfiguração dos recursos com agentes computacionais se comparado a reconfiguração com previsão de carga futura.
MLearning-PL: a pedagogical pattern language for mobile learning applications
The development and use of computational applications to support teaching and learning, together with the evolution of mobile computing, have contributed significantly to the establishment of a new learning modality known as mobile learning. Despite the benefits and facilities offered by educational applications, some problems and issues they present must be addressed. Challenges associated with mobile learning are not limited to developmental aspects or technologies. We should also consider the pedagogical aspects of this kind of application. When dealing with domain-specific software, we must be concerned about domain requirements. Therefore, it is important to have expert knowledge in the requirements engineering team and, in the case of mobile learning applications projects, such knowledge come from educators, teachers and tutors. However, capturing and transferring tacit knowledge are not trivial tasks and a supporting mechanism that guides the requirements elicitation phase in mobile learning applications projects would be of major importance. Pattern languages as a method to describe tacit knowledge is acknowledged and could be used as a supporting mechanism. Patterns constitute a mechanism for capturing domain experience and knowledge to allow such experience and knowledge to be reapplied when a new problem is encountered. Similarly, pedagogical patterns try to capture expert knowledge of the practice of teaching and learning. Aiming to solve, or at least diminish, the problems associated with mobile learning and due the lack of pedagogical patterns for this purpose, this work aims to create a pedagogical pattern language to assist the requirements elicitation phase of mobile learning applications projects. In this context, a pedagogical pattern language, named MLearning-PL, was created. It is composed of 14 patterns and focuses on assisting in the definition of mobile applications in order to keep learners motivated and committed to using such applications, considering their different learning styles and an effective knowledge acquisition. Experimental studies comparing MLearning-PL to an ad hoc approach in a pedagogical problem resolution scenario were conducted. The results obtained provided preliminary evidences of the applicability, effectiveness and efficiency of MLearning-PL.
A simulation-driven model-based approach for designing software-intensive systems-of-systems architectures
Context: Software-intensive systems have been increasingly interoperated forming alliances termed as Systems-of-Systems (SoS). SoS comprises a collection of systems joined to achieve a set of missions that none of the systems can accomplish on its own. Each constituent system keeps its own management, goals, and resources while coordinating within the SoS and adapting to meet SoS goals. Applications of SoS range from traffic control to emergency response and crisis management. As SoS often support critical domains, such systems must be correct by dealing with malfunction or defects and avoiding failures that could cause extensive damage and losses to the users. Problem: Correct SoS operations depend on a precise specification and a rigorous attestation of its operational consistency. However, besides limitations on languages to jointly capture SoS structure and behavior, predictions on the SoS operational consistency rely on constituent systems not totally known at design-time. Therefore, SoS have been developed and deployed without evaluating their operations, since current languages do not support such precision in evaluation. Objectives: This thesis provides solutions founded on a formal architectural description language to support an early evaluation of SoS operation regarding SoS structure and behavior by means of simulations. Contribution: The main contributions of this project comprise (i) a model transformation approach for automatically producing simulation models from SoS software architecture descriptions, combining SoS structure and behavior description in a same solution, (ii) a SoS software architecture evaluation method for SoS operation prediction considering the inherent changes that can occur, (iii) environment modelling and automatic generation of stimuli generators to sustain the SoS simulation, delivering data to feed such simulation, and (iv) a method for the automatic synchronization between the runtime descriptive architecture (changed at runtime due to dynamic architecture) and its original prescriptive architecture based on model discovery and recovery mechanisms and a backward model transformation. Evaluation: We conducted case studies to assess our solutions using Flood Monitoring SoS and Space SoS. Results: Our solutions support a high accuracy to (i) produce fault-free and fully operational simulations for SoS software architectures, (ii) support evaluation and prediction of SoS operation at design-time, (iii) automatically generate stimuli generators to sustain and feed the simulation execution, and (iv) maintain the synchronization between the runtime architecture and the intended version of the SoS architecture. Conclusions: We concluded that the proposed solutions advance the state of the art in SoS software architecture evaluation by offering solutions to predict the SoS operations effectiveness to maintain a continuous operation despite architectural changes, providing more trust for users that futurely shall rely on SoS services.
2018
Valdemar Vicente Graciano Neto
Caracterização de cargas de trabalho para avaliação de desempenho em Web services
Esta dissertação de mestrado aborda um estudo sobre a caracterização de cargas de trabalho para Web services por meio da análise de Documentos WSDL (Web Service Description Language). Esses documentos, que representam a interface para os serviços, foram obtidos na Web e seus conteúdos analisados estatisticamente. A metodologia utilizada para alcançar a caracterização desejada, constitui-se da coleta e análise dos dados de 1346 arquivos WSDL válidos. O resultado do estudo proposto nesta dissertação contribui para a avaliação de desempenho no que diz respeito a caracterizar os diversos aspectos das cargas de trabalho de Web services. Dentre os dados obtidos ressaltam-se as porcentagens da ocorrência de algumas características tais como o número de operações, tipos de Binding, quantidade de parâmetros de entrada e saída e tipos de dados mais utilizados. Para auxiliar na busca e avaliação das características das WSDLs uma nova ferramenta denominada WSDLAnalyzer é proposta e implementada
Alcançabilidade e controlabilidade médias para sistemas lineares com saltos markovianos a tempo contínuo
Neste trabalho estudamos as noções de alcançabilidade e controlabilidade para sistemas lineares a tempo contínuo com perturbações aditivas e saltos nos parâmetros sujeitos a uma cadeia de Markov geral. Definimos conceitos de alcançabilidade e controlabilidade médios de maneira natural exigindo que os valores esperados dos gramianos correspondentes sejam definidos positivos. Visando obter uma condição testável para ambos os conceitos, introduzimos conjuntos de matrizes de alcançabilidade e de controlabilidade para esta classe de sistemas e usamos certas propriedades de invariância para mostrar que: o sistema é alcançável em média, e, analogamente, controlável em média, se e somente se as matrizes respectivas, de alcançabilidade e de controlabilidade, têm posto completo. Usamos alcançabilidade média de sistemas para mostrar que a matriz de segundo momento do estado é definida positiva com uma margem uniforme. Uma consequência deste resultado no problema de estimação linear do estado é que a matriz de covariância do erro de estimação é positiva definida em média, no sentido que existe um nível mínimo de ruído nas estimativas. Na sequência, para estimadores lineares markovianos, estudamos a limitação do valor esperado da matriz de covariância do erro para mostrar que o filtro é estável num certo sentido, sendo esta uma propriedade desejável em aplicações reais. Quanto às aplicações da controlabilidade média, usamos este conceito para estabelecer condições necessárias e suficientes que garantem a existência de um processo de controle que leva a componente contínua do estado do sistema para a origem em tempo finito e com probabilidade positiva.
2015
Alfredo Rafael Roa Narvaez
Um modelo multiobjetivo para controle biológico de pragas por meio de VANT: distribuição eficiente de cápsulas
Pragas exóticas podem causar prejuízos financeiros de US$ 1,4 trilhão no mundo e, ameaçar a segurança alimentar mundial. O controle biológico é um fenômeno natural no qual consiste na regulação do número de plantas ou animais por meio de inimigos naturais. O uso de veículo aéreo não tripulado (VANT) como plataforma de apoio ao controle biológico tem se mostrado promissor, pois há a possibilidade de redução de custos operacionais e transposição de barreiras naturais, como rios e animais peçonhentos. Entretanto, os métodos atuais para a disseminação de cápsulas com inimigos naturais são feitos por um VANT pilotado remotamente ou com rota ziguezague, na qual possui baixa eficiência de cobertura e não pode cobrir áreas de qualquer formato. Outra questão importante é a precisão na deposição das cápsulas, que pode ser negativamente influenciada pelos ventos no momento da liberação das cápsulas. Nesta tese propõe-se um sistema e um método para controle biológico de pragas, por meio de VANT, que são compostos por um novo algoritmo para o cálculo dos locais de deposição de cápsulas, conhecido por problema de cobertura, que possa ser empregado em áreas de qualquer formato. Um método para reposicionar a aeronave, em ambiente ventoso, no momento da liberação da cápsula para aumentar a precisão da deposição da cápsula e, um mecanismo liberador de cápsulas. Na questão da cobertura, na situação mais complexa ao comparar com a literatura, os resultados mostram que o algoritmo proposto apresentou 1,54% a mais de área efetivamente coberta, 9,54% a mais na eficiência de cobertura, ineficiência de cobertura 104,88% menor, protegeu 7,16% a mais a região de borda e, necessitou de 13,56% menos cápsulas liberadas. Como reposicionamento da aeronave em ambiente ventoso, os resultados obtidos com o simulador Morse mostram que é mais vantajoso realizar o voo com uma altura de 20 m do que a 10 m. Portanto, é possível utilizar VANT para distribuição eficiente de cápsulas para o controle biológico em áreas de qualquer formato. Os principais impactos são o potencial de redução de custos por liberar menos cápsulas e cobrir melhor as regiões fronteiriças da plantação.
2020
Heitor de Freitas Vieira
Reúso de software voltado ao domínio de sistemas de combate ao Aedes aegypti no contexto de Internet das Coisas
Os Países em desenvolvimento, como o Brasil, principalmente, são afetados por doenças transmitidas pelo mosquito Aedes aegypti, entre as quais destacam-se a Dengue, Zika e Chikungunya. Essas doenças podem levar à morte e, de acordo com a Organização Mundial da Saúde (OMS), é preciso tomar precauções para controlá-las. Os sistemas que usam tecnologias baseadas em Internet das Coisas (IoT, do acrônimo Internet of Things) estão começando a ser usados na luta contra esse mosquito, pois o uso dessa tecnologia pode detectar condições favoráveis à proliferação do mosquito e alertas podem ser gerados para que entidades públicas de Saúde tomem as medidas cabíveis para combater o mosquito. No entanto, muito mais do que isso precisa ser feito. Por se tratar de uma área de pesquisa e desenvolvimento ainda nova, a IoT possui poucos estudos publicados a respeito de seu uso no combate ao Aedes aegypti, e esse assunto já se mostrou relevante na literatura. Portanto, os objetivos deste estudo são três: primeiro, selecionar, organizar, e investigar os desafios do uso de aplicações baseados em Internet das Coisas (IoT) para combater mosquitos, identificando possíveis lacunas para pesquisas futuras; segundo, extrair informações úteis para a possível construção de sistemas de combate ao mosquito Aedes aegypti; e terceiro, construir um protótipo de framework caixa branca (ComGypti, do acrônimo Combat to Aedes aegypti) que abstraia funcionalidades primordiais dos modelos gerados nas duas etapas anteriores. Foi realizado um Mapeamento Sistemático da Literatura (MSL) para identificar lacunas nas metodologias existentes que usam a IoT para construir sistemas de combate a mosquitos. Os resultados desse mapeamento, juntamente com entrevistas com especialistas em Saúde no contexto das agências de saúde brasileiras, possibilitaram a realização de uma análise de domínio que é apresentada aqui por meio de modelos abstratos de requisitos funcionais, e com base neles foi construído o ComGypti. Os modelos fornecidos nesta dissertação podem ser reutilizados durante a engenharia de requisitos de sistemas de combate ao Aedes aegypti, bem como o ComGypti, assim facilitando e tornando mais eficiente o desenvolvimento desses sistemas.
2020
Henrique de Araujo Silva
Study and definition of project attributes for selection of testing techniques for concurrent software
[Context:] The choice of a testing technique to be adopted in a software testing project is based on the testers knowledge and often does not consider all testing techniques available. The selection of the right technique at any stage is one of the critical problems in software development. In a previous project of this research group, a framework was defined for supporting the systematic selection of concurrent software testing techniques. A characterization scheme was proposed and implemented in SeleCTT tool, which is composed of a set of attributes that considers characteristics of concurrent programs. The framework calculates suitable attributes for guiding the selection of testing techniques for a particular software project. [Objective:] The selection of a testing technique at each stage of a softwares life cycle depends on many factors. This work aims to contribute to the activity of selecting testing techniques for concurrent programs, investigating the characterization of project attributes, and proposing an approach of combining testing techniques to improve the selection process of SeleCTT. [Methodology:] A catalog with 61 selection attributes used for testing techniques selection was elaborated, and most attributes used are concentrated in the general testing characteristics\" category and, then, in software project\", which highlights the importance of such categories for supporting the selection. Moreover, a combination of the selection attributes incorporated in SeleCTT was proposed. After the calculation of the testing technique suitability according to data of a software project informed as input, SeleCTT recommends more than one technique, considering information related to concurrent bugs and testing level attributes. It, therefore, guides the user in the application of complementary testing techniques that can find different faults. [Results and Conclusions:] The results suggest our combined selection approach has achieved higher effectiveness in the selection of testing techniques for concurrent programs. Choosing a good testing technique can improve the quality of a software project and even reduce the development cost. The results obtained from the contributions made in the process of selecting testing techniques are promising and contribute to the quality of the testing activity.
2020
Italo de Oliveira Santos
"Avaliação de desempenho com algoritmos de escalonamento em clusters de servidores Web"
O surgimento de novos serviços e aplicações baseados na Web tem provocado um aumento desenfreado na quantidade de usuários da World Wide Web que, por sua vez, se torna cada vez mais popular no mundo dos negócios. Sites de e-commerce, que demandam grande tráfego de requisições, têm adotado sistemas de servidores Web distribuídos, como a arquitetura Web Cluster. Isso se deve ao fato de enfrentarem frequentemente situações de sobrecarga, durante as quais podem deixar de atender requisições de transação (com grande probabilidade de gerar renda) por conta do aumento na demanda de requisições de navegação (geram renda apenas de forma indireta). A utilização ineficiente de recursos pode comprometer o desempenho do sistema e é nesse contexto que este trabalho se insere. Neste trabalho foi desenvolvido um modelo de Servidor Web para E-Commerce (SWE-C),validado por meio de um modelo de simulação e uma carga sintética gerada a partir de um modelo desenvolvido com os principais tipos de requisições que caracterizam um site de e-commerce. Foram realizadas simulações no sistema com diversas combinações de algoritmos de escalonamento e disciplinas de atendimentos para filas, dentre as quais de destaca uma nova disciplina que utiliza um mecanismo de prioridades orientado ao consumo de CPU proposto neste trabalho. O objetivo é aumentar o throughput de requisições de transação e melhorar os tempos de resposta em situações de sobrecarga. Uma avaliação de desempenho foi realizado e constatou-se que o mecanismo de prioridades proposto é adequado às necessidades de um site de e-commerce.
Implementação e comparação de métodos de estimativa da dimensão fractal e sua aplicação à análise e processamento de imagens
A Dimensão Fractal pode ser utilizada para medir algumas características ligadas a complexidade da imagem, permitindo seu uso em análise de formas e texturas e reconhecimento de padrões. Neste trabalho é apresentado um estudo comparativo entre alguns dos principais métodos de estimativa da Dimensão Fractal. Foi realizada uma análise experimental e um estudo de casos para cada uma das técnicas, levando em consideração aspectos de implementação, precisão, variação de resultados segundo ajuste de parâmetros e tolerância a ruídos. Neste trabalho também foi desenvolvido um estudo sobre a Dimensão Fractal Multiescala, visando seu emprego como metodologia de assinatura de complexidade. Na literatura a técnica de multiescala é limitada ao método de Bouligand-Minkowski, sendo aqui ela estendida para outras metodologias de estimativa de Dimensão Fractal. Por meio de análise experimental as metodologias propostas foram comparadas e os resultados discutidos, enfatizando as vantagens e desvantagens destas técnicas.
Segurança em sistemas embarcados críticos - utilização de criptografia para comunicação segura
Este trabalho contempla o estudo de algoritmos criptográficos para assegurar a comunicação entre sistemas embarcados críticos tendo em vista o grande crescimento na utilização e disseminação desse tipo de sistema, bem como a alta necessidade em se assegurar as informações que são enviadas e recebidas. Um dos desafios a serem contemplados é o estudo e a avaliação do impacto no desempenho desses sistemas, levando em consideração limitações de recursos inerentes a esta plataforma e a criticidade da comunicação em sistemas de tempo real. Os experimentos realizados são de cunho prático por meio de um protótipo implementado em kits Gumstix Overo EVM. Os resultados avaliam os principais algoritmos de criptografia, provendo informações que podem auxiliar na escolha de uma solução criptográfica própria para ambientes embarcados
2012
Daniel Fernando Pigatto
Reconstrução tomográfica de imagens SPECT a partir de poucos dados utilizando variação total
Para realizar a correção de atenuação em uma tomografia computadorizada por emissão de fóton único (SPECT, em inglês) é necessário medir e reconstruir o mapa dos coeficientes de atenuação utilizando uma leitura de um tomógrafo de transmissão, feita antes ou simultaneamente à leitura de emissão. Essa abordagem encarece a produção da imagem e, em alguns casos, aumenta consideravelmente a duração do exame, sendo a imobilidade do paciente um fator importante para o sucesso da reconstrução. Uma alternativa que dispensa a leitura de transmissão é reconstruir tanto a imagem de atividade quanto o mapa de atenuação somente através dos dados de uma leitura de emissão. Dentro dessa abordagem propusermos um método baseado no algoritmo criado por Censor, cujo objetivo é resolver um problema misto de viabilidade côncavo-convexo para reconstruir simultaneamente as imagens. O método proposto é formulado como um problema de minimização, onde a função objetivo é dada pela variação total das imagens sujeita à viabilidade mista de Censor. Os teste foram feitos em imagens simuladas e os resultados obtidos na ausência de ruídos, mesmo para uma pequena quantidade de dados, foram satisfatórios. Na presença de dados ruidosos com distribuição de Poisson o método foi instável e a escolha das tolerâncias, nesse caso, ainda é um problema aberto.
2017
João Guilherme Vicente de Araujo
"Pré-processamento de dados em aprendizado de máquina supervisionado"
A qualidade de dados é uma das principais preocupações em Aprendizado de Máquina - AM -cujos algoritmos são freqüentemente utilizados para extrair conhecimento durante a fase de Mineração de Dados - MD - da nova área de pesquisa chamada Descoberta de Conhecimento de Bancos de Dados. Uma vez que a maioria dos algoritmos de aprendizado induz conhecimento estritamente a partir de dados, a qualidade do conhecimento extraído é amplamente determinada pela qualidade dos dados de entrada. Diversos aspectos podem influenciar no desempenho de um sistema de aprendizado devido à qualidade dos dados. Em bases de dados reais, dois desses aspectos estão relacionados com (i) a presença de valores desconhecidos, os quais são tratados de uma forma bastante simplista por diversos algoritmos de AM, e; (ii) a diferença entre o número de exemplos, ou registros de um banco de dados, que pertencem a diferentes classes, uma vez que quando essa diferença é expressiva, sistemas de aprendizado podem ter dificuldades em aprender o conceito relacionado com a classe minoritária. O problema de tratamento de valores desconhecidos é de grande interesse prático e teórico. Em diversas aplicações é importante saber como proceder quando as informações disponíveis estão incompletas ou quando as fontes de informações se tornam indisponíveis. O tratamento de valores desconhecidos deve ser cuidadosamente planejado, caso contrário, distorções podem ser introduzidas no conhecimento induzido. Neste trabalho é proposta a utilização do algoritmo k-vizinhos mais próximos como método de imputação. Imputação é um termo que denota um procedimento que substitui os valores desconhecidos de um conjunto de dados por valores plausíveis. As análises conduzidas neste trabalho indicam que a imputação de valores desconhecidos com base no algoritmo k-vizinhos mais próximos pode superar o desempenho das estratégias internas utilizadas para tratar valores desconhecidos pelos sistemas C4.5 e CN2, bem como a imputação pela média ou moda, um método amplamente utilizado para tratar valores desconhecidos. O problema de aprender a partir de conjuntos de dados com classes desbalanceadas é de crucial importância, uma vez que esses conjuntos de dados podem ser encontrados em diversos domínios. Classes com distribuições desbalanceadas podem se constituir em um gargalo significante no desempenho obtido por sistemas de aprendizado que assumem uma distribuição balanceada das classes. Uma solução para o problema de aprendizado com distribuições desbalanceadas de classes é balancear artificialmente o conjunto de dados. Neste trabalho é avaliado o uso do método de seleção unilateral, o qual realiza uma remoção cuidadosa dos casos que pertencem à classe majoritária, mantendo os casos da classe minoritária. Essa remoção cuidadosa consiste em detectar e remover casos considerados menos confiáveis, por meio do uso de algumas heurísticas. Uma vez que não existe uma análise matemática capaz de predizer se o desempenho de um método é superior aos demais, análises experimentais possuem um papel importante na avaliação de sistema de aprendizado. Neste trabalho é proposto e implementado o ambiente computacional Discover Learning Environmnet - DLE - o qual é um em framework para desenvolver e avaliar novos métodos de pré-processamento de dados. O ambiente DLE é integrado ao projeto Discover, um projeto de pesquisa em desenvolvimento em nosso laboratório para planejamento e execução de experimentos relacionados com o uso de sistemas de aprendizado durante a fase de Mineração de dados do processo de KDD.
2003
Gustavo Enrique de Almeida Prado Alves Batista
Construção semi-automática de taxonomias para generalização de regras de associação
Para o sucesso do processo de mineração de dados é importante que o conhecimento extraí?do seja compreensível e interessante para que o usuário final possa utilizá-lo em um sistema inteligente ou em processos de tomada de decisão. Um grande problema, porém, é identificado quando a tarefa de mineração de dados denominada associação é utilizada: a geração de um grande volume de regras. Taxonomias podem ser utilizadas para facilitar a análise e interpretação das regras de associação, uma vez que as mesmas provêm uma visão de como os itens podem ser hierarquicamente classificados. Em função dessa hierarquia é possível obter regras mais gerais que representem um conjunto de itens. Dentro desse contexto, neste trabalho é apresentada uma metodologia para construção semi-automática de taxonomias, que inclui procedimentos automáticos e interativos para a realização dessa tarefa. Essa combinação possibilita a utilização do conhecimento do especialista e também o auxilia na identificação de grupos. Entre os principais resultados deste trabalho, pode-se destacar a proposta e implementação do algoritmo SACT (Semi-automatic Construction of Taxonomies - Construção Semi-automática de Taxonomias), que provê a utilização da metodologia proposta. Para viabilizar a utilização do algoritmo, foi desenvolvido o módulo computacional RulEESACT. Com o objetivo de viabilizar e analisar a qualidade da metodologia proposta e do módulo desenvolvido, foi realizado um estudo de caso no qual foram construída taxonomias para duas bases de dados utilizando o RulEE-SACT. Uma das taxonomias foi analisada e validada por uma especialista do domínio. Posteriormente, as taxonomias e as bases de transações foram fornecidas para dois algoritmos de generalização de regras de associação a fim de analisar a aplicação das taxonomias geradas
2006
Camila Delefrate Martins
Integrando projeções multidimensionais à analise visual de redes sociais
Há várias décadas, pesquisadores em ciências sociais buscam formas gráficas para expressar as relações humanas na sociedade. O advento do computador e, mais recentemente, da internet, possibilitou o surgimento de um campo que tem despertado a atenção de estudiosos das áreas de visualização de informação e de ciências sociais, o da visualização de redes sociais. Esse campo tem o potencial de revelar e explorar padrões que podem beneficiar um número muito grande de aplicações e indivíduos em áreas tais como comércio, segurança em geral, redes de conhecimento e pesquisa de mercado. Grande parte dos algoritmos de visualização de redes sociais são baseados em grafos, destacando relacionamentos entre indivíduos e grupos de indivíduos, mas dando pouca atenção aos seus demais atributos. Assim, este trabalho apresenta um conjunto de soluções para representar e explorar visualmente redes sociais levando em consideração tais atributos. A primeira solução faz uso de redes heterogêneas, onde tanto indivíduos quanto comunidades são representados no grafo; a segunda solução utiliza técnicas de visualização baseadas em projeção multidimensional, que promovem o posicionamento dos dados no plano de acordo com algum critério de similaridade baseado em atributo; e a última solução coordena múltiplas visões para focar rapidamente em regiões de interesse. Os resultados indicam que as soluções proveem um poder de representação e identificação de conceitos não facilmente detectados por formas convencionais de visualização e exploração de grafos, com indícios fornecidos através dos estudos de caso e da realização de avaliações com usuários. Este trabalho fornece um estudo das áreas de visualização em grafos para a análise de redes sociais bem como uma implementação das soluções de integração da visualização em redes com as projeções multidimensionais
2010
Gabriel de Faria Andery
Identificação de outliers em redes complexas baseado em caminhada aleatória
Na natureza e na ciência, dados e informações que desviam significativamente da média frequentemente possuem grande relevância. Esses dados são usualmente denominados na literatura como outliers. A identificação de outliers é importante em muitas aplicações reais, tais como detecção de fraudes, diagnóstico de falhas, e monitoramento de condições médicas. Nos últimos anos tem-se testemunhado um grande interesse na área de Redes Complexas. Redes complexas são grafos de grande escala que possuem padrões de conexão não trivial, mostrando-se uma poderosa maneira de representação e abstração de dados. Embora um grande montante de resultados tenham sido reportados nesta área de pesquisa, pouco tem sido explorado acerca de detecção de outliers em redes complexas. Considerando-se a dinâmica de uma caminhada aleatória, foram propostos neste trabalho uma medida de distância e um método de ranqueamento de outliers. Através desta técnica, é possível detectar como outlier não somente nós periféricos, mas também nós centrais (hubs), depedendo da estrutura da rede. Também foi identificado que existem características bem definidas entre os nós outliers, relacionadas a funcionalidade dos mesmos para a rede. Além disso, foi descoberto que nós outliers têm papel importante para a rotulação a priori na tarefa de detecção de comunidades semi-supervisionada. Isto porque os nós centrais são bons difusores de informação e os nós periféricos encontram-se em regiões de borda de comunidade. Baseado nessa observação, foi proposto um método de detecção de comunidades semi-supervisionado. Os resultados de simulações mostram que essa abordagem é promissora
2010
Bilzã Marques de Araújo
Uma técnica multimalhas para eliminação de ruídos e retoque digita\"
Técnicas baseadas na Equação de Fluxo Bem-Balanceada têm sido muitas vezes empregadas como eficientes ferramentas para eliminação de ruídos e preservação de arestas em imagens digitais. Embora efetivas, essas técnicas demandam alto custo computacional. Este trabalho objetiva propor uma técnica baseada na abordagem multigrid para acelerar a solução numérica da Equação de Fluxo Bem-Balanceada. A equação de difusão é resolvida em uma malha grossa e uma correção do erro na malha grossa para as mais finas é aplicada para gerar a solução desejada. A transferência entre malhas grossas e finas é feita pelo filtro de Mitchell, um esquema bem conhecido que é projetado para preservação de arestas. Além disso, a equação do transporte e a Equação do Fluxo de Curvatura são adaptadas à nossa técnica para retoque em imagens e eliminação de ruí?dos. Resultados numéricos são comparados quantitativamente e qualitativamente com outras abordagens, mostrando que o método aqui introduzido produz qualidade de imagens similares com muito menos tempo computacional.
Adaptação de vídeo ao vivo apoiada em informações de contexto
O trabalho apresentado nesta dissertação trata do desenvolvimento de um mecanismo para adaptação automática de ví?deo MPEG-4 ao vivo, de modo a atender as necessidades ou capacidades atuais de usuários e do sistema. Um dos desafios dessa área é capturar e representar as informações necessárias para realizar a adaptação. Assim, utilizando técnicas da área de computação ciente de contexto, foi desenvolvido um modelo extensível para representação de dispositivos. Também foram desenvolvidos métodos automáticos e semi-automáticos para capturar as informações necessárias. Neste trabalho foi adotado o modelo de recodificação de vídeo, o qual pode gerar atrasos que inviabilizam a adaptação de vídeo ao vivo em aplicações interativas. Assim, este trabalho realizou uma avaliação do impacto causado pela recodificação no atraso total, fim-a-fim, percebido pelo usuário.
Investigação de alternativas para transmissão de áudio e vídeo na internet: avaliação dos algoritmos de seleção de componentes na arquitetura S-MOJOHON
No contexto da Internet convencional, são várias as soluções oferecidas para transferência de fluxos de áudio e vídeo. Este trabalho é realizado no contexto de uma rede de grande largura de banda e de baixa latência, como aquela que está sendo investigada no contexto do Programa FAPESP TIDIA. O grupo de pesquisa no qual este trabalho foi realizado propôs a arquitetura S-MOJOHON (Lobato et al., 2007a), elaborada com o intuito de permitir transmissão de vários tipos de dados, principalmente áudio e vídeo, no ambiente TIDIA. Os componentes intermediários de uma arquitetura voltada para transmissão de fluxos de áudio e vídeo na Internet, como é o caso da S-MOJOHON, precisam ser selecionados de maneira que possibilitem a entrega de informações entre componentes finais da melhor forma possível. Nesse sentido, o trabalho reportado nesta dissertação envolveu a avaliação dos algoritmos de seleção utilizados nas diferentes implementações da arquitetura S-MOJOHON. Analisando os resultados obtidos, criou-se um novo algoritmo de seleção de componentes que explora as vantagens dos algoritmos avaliados anteriormente. Este texto apresenta a arquitetura S-MOJOHON, a avaliação dos algoritmos de seleção, o novo algoritmo proposto e sua avaliação
Análise e implementação de métodos implícitos e de projeção para escoamentos com superfície livre.
No contexto do método MAC e baseado em esquemas de diferenças finitas, este trabalho apresenta três estudos: i) uma análise de estabilidade, ii) o desenvolvimento de técnicas implícitas e, iii) a construção de métodos de projeção para escoamentos com superfície livre. Na análise de estabilidade, o principal resultado mostra que o método de Crank-Nicolson torna-se condicionalmente estável quando aplicado para uma malha deslocada com a discretiza ção explícita das condições de contorno do tipo Dirichlet. Entretanto, o mesmo método com condições de contorno implícitas é incondicionalmente estável. Para obter métodos mais estáveis, formulações implícitas são desenvolvidas para a equação da pressão na superfície livre, derivada da condição de tensão normal. Esta estratégia resulta no acoplamento dos campos de velocidade e pressão, o que exige a introdução de novos métodos de projeção. Os métodos de projeção assim desenvolvidos resultam em novas metodologias para escoamentos com superfície livre que são apropriados para o tratamento de problemas com baixo número de Reynolds. Além disso, mostra-se que os métodos propostos podem ser aplicados para fluidos viscoelásticos. Novas estratégias são derivadas para obter métodos de projeção de segunda ordem de precisão para escoamentos com superfícies livres. Além dos resultados teóricos sobre a estabilidade de esquemas numéricos, técnicas implícitas e métodos de projeção, testes computacionais são realizados e comparados para consolidação da teoria apresentada. Os resultados numéricos são obtidos no sistema FREEFLOW. A eficiência e robustez das técnicas desenvolvidas neste trabalho são demonstradas na solução de problemas tridimensionais complexos com superfície livre e baixo número de Reynolds, incluindo os problemas do jato oscilante e do inchamento do extrudado
2008
Cássio Machiaveli Oishi