RCAAP Repository

Serious games como apoio para avaliação e treinamento cognitivo na senescência

Serious Games são uma ferramenta promissora em diferentes cenários, como educação e saúde; no entanto, existem poucas pesquisas sobre seu uso com adultos mais velhos. Com o intuito de reproduzir resultados semelhantes às baterias de rastreio cognitivo, comumente utilizadas por profissionais de saúde no Brasil para avaliação de idosos, com declínios provenientes do natural processo de envelhecimento (senescência), foi investigado o potencial de Serious Games. Para tanto, na pesquisa foram considerados pontos focais inerentes ao contexto e fundamentais para superar os desafios que competem à inclusão do idoso no âmbito digital, visando reduzir vieses de pesquisa, resultantes da dificuldade que este público apresenta, diante de inúmeros fatores, no uso de aplicações digitais. Inicialmente, foi dado foco ao papel do desenvolvedor, a partir de revisão bibliográfica sobre os tópicos relacionando Serious Game, acessibilidade, usabilidade e usuários idosos. Com foco no público senescente, foi adotada metodologia quali-quantitativa para aquisição de informações e requisitos, por meio de entrevistas semiestruturadas com o público idoso, visando prototipação do teste cognitivo digital. O protótipo, desenvolvido com base no processo de Design Unificado, foi submetido a dois experimentos de validação, direcionados ao público mais velho (n = 40), com pouca experiência em lidar com tablets ou smartphones. Como resultado, pôde-se observar que, utilizando o teste de correlação de Spearman, com o nível de significância p < 0;05, o primeiro experimento não mostrou correlação significativa, o que motivou a implantação de iniciativas para simplificar os testes, conduzindo a um resultado positivo, em relação à análise de convergência, num segundo experimento. Finalmente, concluise que é possível usar jogos digitais, como testes cognitivos, adaptados às necessidades dos idosos, para obter resultados semelhantes aos dos testes cognitivos em papel. Foi ainda proposto um processo de design de jogos para treino e testes cognitivos, envolvendo o público idoso, por meio da especialização do Design Unificado.

Year

2020

Creators

Leandro D'Agostino Amaral

Análise e classificação de rumores em redes sociais

O aumento da quantidade de pessoas com acesso à internet nos últimos anos contribuiu para o aumento da quantidade de usuários de redes sociais. Entretanto, a falta de monitoramento do que é publicado nas redes sociais pode levar ao surgimento de rumores, que são informações cuja veracidade, no momento de seu surgimento, não pode ser comprovada ou negada. A Análise de Redes Sociais é uma tarefa que envolve esforço de diferentes áreas, como a Ciência da Computação, Matemática e Psicologia, para investigar os usuários e as relações entre eles, e a disseminação de informações. A Visualização de Dados e o Aprendizado de Máquina são subáreas da Ciência da Computação que permitem a descoberta de padrões e anomalias em um conjunto de dados. Neste trabalho de mestrado foram utilizados conceitos de ambas subáreas e da Análise de Redes Sociais na realização de duas análises visuais e uma classificação supervisionada. A primeira análise visual tem como objetivo a comparação entre o Reddit e o Twitter no contexto de propagação de rumores. Essa análise possibilitou a identificação de semelhanças e diferenças existentes entre as duas redes sociais. A segunda análise visual tem como finalidade a identificação dos pontos similares entre um rumor verdadeiro e um rumor falso, e os pontos nos quais eles diferem. Uma classificação supervisionada foi também realizada com o objetivo de detectar se um usuário acredita no rumor que ele está propagando. Para isto, parte do conjunto de dados coletado foi anotado manualmente, classificado e avaliado. Os resultados obtidos mostram que a utilização de duas classes (positivo e negativo) na classificação atingiu resultados satisfatórios, ao contrário do que ocorreu quando três classes (positivo, neutro e negativo) foram utilizadas. Em conjunto, essas tarefas buscaram fornecer elementos para novas estratégias de identificação de rumores.

Year

2020

Creators

Nícolas Roque dos Santos

Classificação transdutiva em redes heterogêneas de informação, baseada na divergência KL

A área de esquisa em Redes Heterogêneas de Informação (HIN) é um recente e proeminente tópico, especialmente quando consideramos que grande parte dos dados de mundo real possuem características heterogêneas. Tais dados, com topologias complexas como relações entre diferentes tipos de objetos, o que não é naturalmente representável pelas tradicionais redes homogêneas. Além disso, comparada com as pesquisas existentes em redes homogêneas ou mesmo em redes bipartidas, a área de pesquisa em HIN ainda permanece com diversos pontos inexplorados. Dentre estes, o desenvolvimento de métodos para a classificação transdutiva em HIN apresenta diversas possibilidades de desenvolvimento. Nesta tese foi proposto o método TCHN de classificação transdutiva de HIN. Tal método tem como diferencial a utilização da divergência KL como medida de similaridade para a regularização da propagação de informação pelos vetores de informação. Esta modelagem tem como motivação o fato de tal métrica ser mais apropriada para a regularização de distribuições de probabilidade, considerando que a distribuição de informação na rede tende a se comporta de tal maneira. Experimentos comprovam que o método TCHN produz resultados comparáveis ou até mesmo superiores aos métodos representativos da área, confirmando assim sua efetividade para a classificação em diversos cenários. Além disso, a complexidade do método TCHN para redes esparsas mostra-se bastante atrativa para a aplicação em dados de mundo real, que como já comentado possuem naturalmente características heterogêneas. Além do desenvolvimento do método TCHN, como parte das demandas da área que impactaram neste trabalho, foi desenvolvida uma ferramenta de geração de redes heterogêneas sintéticas, camada HNOC, em parceria com outros pesquisadores do grupo de pesquisa. Esta já se mostrou bastante útil para a validação do método TCHN, pois com seu uso, foi possível a comparação das técnicas em redes com diferentes características com um custo bastante reduzido se comparado com o possível custo de levantamento de redes semelhantes com base em dados reais.

Year

2020

Creators

Luzia de Menezes Romanetto

Data analysis over large-scale graphs using vertex-centric asynchronous parallel processing

Since the birth of web 2.0, users no longer just consume but are now active creators of content that is going to be consumed by other users. This new dynamic took data generation to a whole new scale, called planetary-scale or web-scale. Often, this data represents relationships between its elements, such as in social networks, recommendation systems, online boards, email networks, scientific citation networks, and others. Analyzing how information flows and how nodes influence each other in several of such networks is a widely regarded problem; While Belief Propagation, which is the fundamental algorithm for these types of inference, is widely used, it historically lacked convergence guarantees for real-world networks. However, even though recently alternative methods such as LinBP solve the convergence problems of the original algorithm, its scalability when dealing with large-scale problems remains a challenge. Also, several of the works proposed to solve this issue, do so by relying on specific infrastructures such as supercomputers and computational clusters. Motivated by these challenges we propose a new algorithm, called VCBP, that aims to provide a scalable framework for belief propagation on largescale problems, such as when graphs do not fit the main memory. We do so by combining stateof- the-art asynchronous vertex-centric parallel processing with state-of-the-art belief propagation algorithm. Our algorithm maintains the same accuracy rate while achieving performance orders of magnitude higher than former LinBPs implementation. Due to the asynchronous nature of our algorithm, VCBP demands fewer iterations before convergence than any previous algorithm. Additionally, we analyze our algorithm in the task of node classification, achieving significant results over real-world datasets. Our findings indicate that there is unexplored potential in todays widely available modern hardware, specifically concerning parallelism, sparking a shift towards a more cost-efficient and ubiquitous data mining scenario.

Year

2020

Creators

Gabriel Perri Gimenes

Uma abordagem multinível para a obtenção de alinhamento estratégico no gerenciamento de processos de negócio

Teoricamente, o Alinhamento Estratégico pode ser obtido com um bom Gerenciamento de Processos de Negócio (BPM na sigla em inglês), porém a relação entre esses temas é, na maioria das vezes, assumida implicitamente e pouco elaborada, tornando-se difícil a visualização e vínculo entre as estratégias e os modelos de processos detalhados, sendo necessário empreender pesquisas na direção de uma união efetiva dos dois temas. O presente trabalho desenvolveu um metamodelo multinível, para ligar os objetivos estratégicos com os processos de negócio da organização através da modelagem de processos de negócio. O trabalho conceitual foi acrescido por uma ferramenta de suporte à modelagem que permite a geração de modelos com base no metamodelo multinível e também a representação dos modelos em diferentes formas de abstração. A abordagem foi aplicada em uma grande multinacional e posteriormente foi conduzida uma avaliação experimental no qual foram realizadas entrevistas com funcionários de diferentes níveis hierárquicos para validar a eficiência e eficácia do trabalho desenvolvido. Como resultado foi possível constatar não apenas a efetividade em alcançar os objetivos propostos como também a facilidade na utilização e compreensão da abordagem em níveis devido a simplicidade na representação dos elementos e seus possíveis relacionamentos

Year

2014

Creators

Felipe Diniz Dallilo

Models and methods for the direct simulation of rough and micropatterned surfaces

Friction in hydrodynamic bearings are a major source of losses in car engines ([69]). The extreme loading conditions in those bearings lead to contact between the matching surfaces. In such conditions not only the overall geometry of the bearing is relevant, but also the small-scale topography of the surface determines the bearing performance. The possibility of shaping the surface of lubricated bearings down to the micrometer ([57]) opened the question of whether friction can be reduced by mean of micro-textures, with mixed results. This work focuses in the development of efficient numerical methods to solve thin film (lubrication) problems down to the roughness scale of measured surfaces. Due to the high velocities and the convergent-divergent geometries of hydrodynamic bearings, cavitation takes place. To treat cavitation in the lubrication problem the Elrod- Adams model is used, a mass-conserving model which has proven in careful numerical ([12]) and experimental ([119]) tests to be essential to obtain physically meaningful results. Another relevant aspect of the modeling is that the bearing inertial effects are considered, which is necessary to correctly simulate moving textures. As an application, the effects of micro-texturing the moving surface of the bearing were studied. Realistic values are assumed for the physical parameters defining the problems. Extensive fundamental studies were carried out in the hydrodynamic lubrication regime. Mesh-converged simulations considering the topography of real measured surfaces were also run, and the validity of the lubrication approximation was assessed for such rough surfaces.

Year

2016

Creators

Hugo Marcial Checo Silva

Animação de jatos oscilantes em fluidos viscosos usando SPH em GPU

Nos últimos anos, o estudo de métodos de animação de escoamento de fluidos tem sido uma área de intensa pesquisa em Computação Gráfica. O principal objetivo desse projeto é desenvolver novas técnicas em GPGPU baseadas na arquitetura CUDA para simular o escoamento de fluidos não-newtonianos, tais como fluidos viscoplásticos e viscoelásticos. Ao invés dos tradicionais métodos com malha diferenças finitas e elementos finitos, essas técnicas são baseadas em uma discretização lagrangeana das equações de governo desses fluidos através do método sem malha conhecido como SPH (Smoothed Particle Hydrodynamics)

Year

2014

Creators

Luiz Fernando de Souza Andrade

Um ambiente para análise de resultados de avaliações de acessibilidade e usabilidade na Web

A Web apresenta um conteúdo extenso de informações disponibilizado a uma população diversificada de pessoas, as quais podem apresentar as mais diferentes habilidades e exigências. Dessa maneira, garantir a acessibilidade a todo usuário é uma tarefa difícil, mesmo existindo um conjunto extenso de recomendações disponibilizadas pelo World Wide Web Consortium (W3C). Assim, são propostas diferentes ferramentas para avaliação de acessibilidade, que contrapõem os artefatos às diretrizes com a finalidade de obter resultados automatizados, produzindo testes e gerando vários dados, como a localização do problema no código e as falhas especificadas. Para facilitar o processamento desses dados, mediante a disponibilização de uma linguagem comum, o W3C desenvolveu a Evaluation and Report Language (EARL). Dados os problemas acerca das dificuldades em se garantir a acessibilidade para os diferentes perfis de usuários e a necessidade da interpretação dos relatórios em EARL, como colaboração para a avaliação manual, indispensável no contexto de testes de acessibilidade, neste trabalho é proposto um apoio por meio de um Ambiente para Análise de Avaliações de Acessibilidade e Usabilidade na Web (A4U). A partir do estudo de caso realizado, pôde-se validar o ambiente A4U desenvolvido, o qual inclui relatórios de avaliações semiautomáticas, para que o desenvolvedor possa interpretá-los e prosseguir com a avaliação manual de acessibilidade e usabilidade. No âmbito do apoio desenvolvido, foram considerados os avanços em acessibilidade, usabilidade, a correlação entre os dois conceitos e a colaboração no desenvolvimento de uma ferramenta denominada AccessibilityUtil1, a qual se destina ser uma fonte de práticas de acessibilidade advindas de experiências de desenvolvedores, mediante colaboração em um ambiente Web, relacionando-as com as diretrizes de acessibilidade do W3C. A presente pesquisa contribuiu para a consolidação das questões de acessibilidade e usabilidade, a partir do desenvolvimento do A4U, que viabiliza a avaliação humana de acessibilidade e usabilidade, e a inserção de resultados de avaliações gerados por ferramentas semiautomáticas, conduzindo o avaliador a produzir melhorias em ambas as frentes

Year

2014

Creators

Leandro Agostini do Amaral

"PARFAIT: uma contribuição para a reengenharia de software baseada em linguagens de padrões e frameworks"

A necessidade de evolução de sistemas legados tem aumentado significativamente com o surgimento de novas tecnologias. Para apoiar essa tendência, diversos métodos de reengenharia têm sido propostos. No entanto, poucos possuem apoio computacional efetivo, alguns utilizam padrões de projeto ou padrões específicos de reengenharia, e nenhum utiliza framework baseado em linguagem de padrões. Este trabalho está inserido no domínio de Sistemas de Informação. Propõe a elaboração de um arcabouço de reengenharia ágil baseado em framework, que realiza a engenharia reversa do sistema legado com o apoio de linguagem de padrões de análise, fornecendo entendimento e documentação necessários para instanciar o framework. O entendimento do sistema legado também é apoiado pela sua execução, por meio de casos de teste. Esses casos de teste são utilizados posteriormente para validar o sistema alvo. O framework, cuja construção é baseada em linguagem de padrões, é utilizado para obter o projeto e a implementação do sistema alvo. Para permitir a reengenharia com o apoio do arcabouço definido, um processo ágil de reengenharia foi criado. Como no desenvolvimento de software, grande parte do tempo da reengenharia é despendido com atividades de VV&T. Para minimizar esse problema, uma abordagem de reúso de teste é proposta. Essa abordagem agrega recursos de teste aos padrões da linguagem de padrões de análise, permitindo o reúso, não somente das soluções de análise, como também dos recursos de testes associados. O uso de framework na reengenharia de software colabora para a sua evolução, pois o domínio ao qual pertence pode evoluir, já que nem todos os requisitos do domínio do framework podem ter sido elicitados durante o seu desenvolvimento. Assim, nesta tese é proposto também um processo de evolução de frameworks de aplicação. Os processos e a abordagem propostos são associados ao arcabouço definido para apoiar sua efetividade. Além disso, para avaliar o processo ágil de reengenharia, que fornece reúso em diversos níveis de abstração, um pacote de experimentação também é parcialmente definido. Estudos de caso e exemplos de uso foram conduzidos com os produtos definidos. Ressalta-se que outros estudos devem ser conduzidos para permitir a determinação de resultados com significância estatística.

Year

2005

Creators

Maria Istela Cagnin

Solução numérica do modelo Oldroyd-B para valores pequenos da razão de viscosidades: aplicação em escoamentos com superfícies livres

Esse trabalho trata do desenvolvimento de um método numérico para simular escoamentos axissimétricos com superfícies livres modelados pela equação constitutiva Oldroyd-B. Uma nova metodologia utilizando o método de diferenças finitas para resolver as equações governantes de escoamentos de fluidos Oldroyd-B em que o parâmetro &beta; pode assumir valores no intervalo [0; 1] é proposta. Assim, fazendo &beta; = 0, esta técnica permite simular escoamentos de fluidos puramente elásticos governados pela equação constitutiva Upper Convected-Maxwell (UCM). Nessa nova estratégia, o tensor tensão extra é calculado em função do tensor conformação que é aproximado implicitamente pelo método de diferenças finitas cujas equações são resolvidas analiticamente. Para obter a solução da equação de conservação de quantidade de movimento e as condições de contorno na superfície livre, emprega-se uma transformação Elastic Viscous Stress Splitting (EVSS) que evita instabilidades numéricas quando &beta; é pequeno. O código numérico é verificado utilizando uma solução analítica para escoamentos axissimétricos em um tubo e também, comparando resultados obtidos na literatura para os escoamentos impacting drop, inchamento do extrudado e inchamento retardado do extrudado de fluidos Oldroyd-B. Novos resultados desses escoamentos são apresentados utilizando o modelo UCM e resultados originais obtidos da simulação dos escoamentos bouncing drops e inchamento retardado do extrudado de fluidos UCM são incluídos; os resultados existentes são decorrentes de modelos viscoelásticos com adição de solventes, como por exemplo, Oldroyd-B, Phan-Thien-Tanner (PTT), FENE-P (Finitely Extensibility Nonlinear Elastic), entre outros.

Year

2020

Creators

Caroline Viezel

Extração automática de conhecimento por múltiplos indutores.

Nesta tese são investigados três problemas básicos em aprendizado supervisionado: seleção de atributos, composição de atributos e combinação de classificadores simbólicos. A seleção de atributos é uma atividade de pré-processamento de dados que seleciona um subconjunto de atributos do conjunto original de exemplos. Existem, basicamente, três abordagens que são empregadas para a seleção de atributos: embutida, filtro e wrapper; as duas últimas pesquisadas neste trabalho. Os experimentos realizados, utilizando diversos indutores e conjuntos de exemplos, para avaliar as abordagens filtro e wrapper nos permitem concluir que o uso de filtros deve ser considerado antes de se cogitar a utilização de wrappers, no caso de existirem muitos atributos para descrever os exemplos. Sob a perspectiva de compreensibilidade do conhecimento induzido, a análise sobre o impacto da seleção de atributos em um classificador simbólico mostrou um aumento do número de regras e do número de condições por regra. A composição de atributos, também conhecida como indução construtiva, é outra atividade de pré-processamento de dados. Dentre as várias abordagens de composição de atributos (guiada por dados, por hipótese, por conhecimento e multi-estratégia), nesta tese é proposta uma metodologia para composição de atributos guiada pelo conhecimento. Os resultados dos experimentos realizados utilizando a metodologia proposta mostram que, mesmo com o auxílio do usuário/especialista, é difícil construir atributos derivados que sejam realmente relevantes para aprender o conceito embutido nos conjuntos de exemplos analisados de repositórios (naturais), os quais, muitas vezes, já foram pré-processados. Esse fato foi confirmado, por um trabalho posterior, com dados do mundo real, no qual a metodologia proposta mostrou seu potencial. A combinação de classificadores, simbólicos ou não, é uma atividade de mineração de dados. Na realidade, uma das preocupações do Aprendizado de Máquina simbólico é que os classificadores induzidos devem ser fáceis de serem compreendidos pelos seres humanos. Para isso, deve-se escolher o indutor com bias mais adequado para cada tipo de situação, já que pesquisas mostraram que não existe o 'melhor' indutor para todos os domínios. Aliada a essa escolha, é possível fazer uso de vários classificadores, combinando-os num único classificador final, formando um ensemble. Os ensembles possuem a tendência de melhorar o desempenho na classificação de exemplos não vistos durante o processo de aprendizado. Entretanto, o emprego de ensembles dificulta a compreensão humana sobre o comportamento do classificador final, já que ele deixa de ser simbólico, mesmo assumindo que cada classificador individual que o compõe seja simbólico. Na realidade, a combinação de classificadores simbólicos - provenientes de diferentes indutores - em um classificador final também simbólico é um tópico novo de pesquisa, ainda com poucos resultados divulgados. Com o objetivo de preencher essa lacuna, é proposto e desenvolvido neste trabalho o sistema Xruler. Para isso, inicialmente foi definido o formato padrão de regras PBM, o qual fornece uma perspectiva unificada sob a qual todo classificador simbólico pode ser convertido e analisado. Dentre outros componentes, o sistema Xruler possui um algoritmo de cobertura que pode ser aplicado ao conjunto de regras induzidas por diversos indutores para se obter um classificador simbólico final. Nos experimentos realizados com o sistema Xruler os resultados obtidos mostraram aumento da precisão e redução do número de regras. Sob o aspecto sintático das regras, isso pode ser considerado um avanço no sentido de uma maior compreensibilidade por seres humanos do conjunto final de regras.

Year

2001

Creators

José Augusto Baranauskas

DESENVOLVIMENTO DE SOFTWARE BÁSICO PARA GERENCIAMENTO DE UM SISTEMA MULTIUSUÁRIO DISTRIBUÍDO

No início deste trabalho foi realizado um estudo bibliográfico, sobre sistemas de processamento de dados distribuído, sistemas de gerenciamento de arquivos, memória cache, e as principais exigências de que um sistema de processamento de dadas multiusuário requer.quando da sua implementação. Neste trabalho é descrita o desenvolvimento e e implementação de um sistema operacional para numa arquitetura multiusuária, onde o tratamento dos aplicativos é executado em estações de trabalho autônomas, e o gerenciamento e a armazenagem de arquivos são realizados pelo processador dedicado. Esse sistema operacional foi elaborado compatível com o sistema: operacional CP/M, a fim de aproveitar a vasta variedade de. software que existe disponível pera esse sistema. Nesse .sentido, descreve-se várias características do sistema CP/M que não são documentadas, e a implementação da versão multiusuária do sistema operacional construído.. Apresenta-se também um algoritmo para o gerenciamento de memória cache para dispositivos periféricos (disco). Esse .algoritmo. representa uma aglutinação dos tradicionais métodos de substituição de registros do cache - LFU (Lest Frequently Used) e LRU (Leasf Recently Used ) - que mostrou-se bastante eficiente na aplicação em que foi utilizado.

Year

1987

Creators

Agma Juci Machado Traina

UMA INTERFACE EM LINGUAGEM NATURAL PARA RECUPERAÇÃO DO CONHECIMENTO

Neste trabalho foram dados os primeiros passos na direção de se obter uma interface em Linguagem natural para consulta a bases de dados. 0 projeto desta interface prevê um sistema eclético em que vários modelos cognitivos interagem para permitir a compreensão de perguntas. Um protótipo foi construído de modo a mostrar a viabilidade do sistema final. Neste protótipo experimentou-se várias das técnicas propostas para sistemas de ínterface, com resultado satisfatório.

Year

1987

Creators

Lucia Helena Machado Rino

Um suporte à captura informal de design rationale

Durante o processo de desenvolvimento de software, uma grande quantidade de documentos é gerada com o propósito de registrar as experiências e as decisões relacionadas ao projeto de software. Apesar do esforço empregado na documentação de tais informações, muitas vezes esses documentos não contêm informações suficientes e necessárias para o completo entendimento do software, para a reutilização das experiências adquiridas e a recuperação do processo de tomada de decisão. De maneira geral, apenas as decisões finais a respeito do projeto são documentadas. O Design Rationale (DR) consiste das informações adicionais aos documentos padrões em um processo de desenvolvimento de software, facilitando sua compreensão, manutenção e reuso. Na literatura, muitas pesquisas referem-se aos problemas relacionados à atividade de captura de DR, principalmente no que diz respeito à sobrecarga de trabalho durante o momento de design. O desenvolvimento de mecanismos que facilitem a captura de Design Rationale durante a elaboração de artefatos de software é ainda um desafio. No contexto de ferramentas CASE (Computer Aided Software Engineering), cuja utilização enfrenta grande resistência por parte de seus usuários (desenvolvedores), torna-se imprescindível a aplicação de técnicas para garantir a máxima usabilidade dessas ferramentas, de forma a minimizar a resistência à sua utilização. O paradigma da computação ubíqua trouxe grandes mudanças ao desenvolvimento de aplicações da Ciência da Computação, visto que estas aplicações são transparentes, apresentam um comportamento contínuo e ciente de contexto, e visam tornar a interação com o usuário a mais natural possível. Diante desse contexto, a adoção de mecanismos de computação ubíqua na atividade de captura de DR torna-se uma abordagem de interesse científico. O uso de mecanismos de computação ubíqua faz com que a captura das informações e decisões relacionadas ao projeto de software seja realizada de forma mais natural, reduzindo a sobrecarga do uso de uma ferramenta que necessite de tempo adicional para o armazenamento do DR, seja durante o processo de tomada de decisões ou depois do mesmo. Assim sendo, o trabalho realizado neste projeto de mestrado consistiu na reengenharia de uma ferramenta de suporte a DR e à sua integração com um editor gráfico que permite a escrita manual e oferece um serviço de reconhecimento de escrita, de modo a prover uma maneira mais flexí?vel para a entrada de dados e que pode ser utilizada em dispositivos com diferentes tamanhos e características, tais como Tablet PCs e lousas eletrônicas

Year

2005

Creators

Silvana Maria Affonso de Lara

Uso de informações de contexto em segurança computacional

Diariamente, novos sistemas ubíquos são desenvolvidos e integrados ao nosso cotidiano, cuja presença às vezes não é percebida pelos seus usuários. O objetivo deste trabalho é investigar as questões de segurança e privacidade existentes nos paradigmas de computação ubíqua e ciente de contexto. Utilizando um protótipo de TV interativa - TV-I (Goularte, 2003) - que possui características de mobilidade e ciência de contexto, este trabalho define um conjunto de requisitos mínimos para a garantia de segurança e privacidade em sistemas ubíquos. É também objetivo deste trabalho utilizar informações contextuais para gerenciamento dinâmico de requisitos de segurança e privacidade por meio de políticas expressas em linguagem EPAL. Para validar os resultados desta pesquisa, foi implementado o Gerente de Segurança como um serviço do protótipo TV-I. A principal característica desse gerente é controlar o acesso a informações pessoais por meio de informações de contexto fornecidas pelo Gerente de Contexto, de autoria de Santos (2004)

Year

2004

Creators

Francisco Gomes Milagres

Incluindo funções de distância e extratores de características para suporte a consultas por similaridade

Sistemas Gerenciadores de Bases de Dados Relacionais (SGBDR) são capazes de lidar com um alto volume de dados. As consultas nestes sistemas são realizados a partir da relação de ordem total, domínio sob o qual estão definidos dados simples como números ou strings, por exemplo. No caso de dados complexos, como imagens médicas, áudio ou séries-temporais financeiras que não obedecem as propriedade da relação acima citada e necessária uma abordagem que seja capaz de realizar a recuperação por conteúdo destes dados em tempo hábil e com semântica adequada. Nesse sentido, a literatura nos apresenta, como paradigma consolidado, as consultas por similaridade. Esse paradigma e a base para o funcionamento de muitos aplicativos de auxílio a tomada de decisão pelo especialista como Recuperação de Imagens Médicas por Conteúdo (CBMIR) e Recuperação de Áudio por Conteúdo (CBAR) e inclui diversas sub-áreas de pesquisa tais como extratores de características, funções de distância e métodos de acesso métrico. O desenvolvimento de novos métodos extratores de características e novas funções de distância são de fundamental importância para a diminuição do gap semântico entre os aplicativos e usuários, enquanto os métodos de acesso métricos são os reponsáveis diretos pela rápida resposta dos sistemas. Integrar todas essas funcionalidades em um framework de suporte a consultas por similaridade dentro de um SGBDR permanece um grande desafio. Esse trabalho objetiva estender uma proposta inicial dos recursos disponíveis no SIREN, inserindo novos extratores de características e funções de distância para imagens médicas e séries-temporais financeiras transformando-o em um framework, de forma que seus componentes possam ser utilizados via comandos Structured Query Language (SQL). Os resultados poderão ser diretamente utilizados por aplicativos de auxílio a tomada de decisão pelo especialista

Year

2013

Creators

Marcos Vinícius Naves Bêdo

Estrutura e dinâmica de redes de informação

O aumento na disponibilidade de dados referentes a interação entre pessoas online tornou possível o estudo o processo de propagação de informações em redes sociais com volumes de dado antes jamais pensados. Neste trabalho, utilizamos dados do site de micro-blogging Twitter juntamente com conceitos de redes complexas para entender, caracterizar e classificar processos de difusão de informação observados nessa plataforma e em redes sociais em geral. Apresentamos importantes medidas para caracterização de cascatas de informação, bem como algoritmos eficientes para o seu cálculo. Com o auxilio dessas, mostramos que é possível quantificar a influência da rede social no processo de propagação de informação. Em seguida, constatamos que a informação tende a propagar por caminhos mínimos nessa rede. Por fim, mostramos que é possível utilizar apenas a topologia da rede social, sem nenhuma informação semântica, para agrupar tópicos, e que a topologia da rede social é fortemente influenciada pelos assuntos falados nela. Apesar de nosso trabalho possuir como base um único dataset, os métodos e medidas desenvolvidos são gerais e podem ser aplicados a qualquer processo de difusão de informação e a qualquer rede complexa.

Year

2016

Creators

Luís Fernando Dorelli de Abreu

Scene compliant spatio-temporal multi-modal multi-agent long-term trajectory forecasting

Predicting long-term human motion is challenging due to the non-linearity, multi-modality, and inherent uncertainty in future trajectories. Such type of prediction is important to ensure safety in the context of self-driving vehicles, especially when driving inside cities where vulnerable road agents, as cyclists and pedestrians, might be more commonly seen. By predicting the trajectories of surrounding agents, the self-driving car can plan safer routes and avoid possible collisions. Prior studies have used different types of input information depending on the type of agent (cars, pedestrians, or cyclists), the length of the predicted trajectory (long or short-term), and the number of predicted trajectories (unimodal or multimodal). Related work either rely on highdefinition maps or processes scene and past trajectories as disconnected features, therefore the spatial inference of context in future trajectories is lost. We propose a new approach to trajectory forecasting that aligns the input information in space and time in an agent-centered manner. By aligning the input information we can take advantage of convolutional neural networks to compute the most plausible paths. Our model automatically learns and enforces scene context and therefore can predict multiple plausible paths according to the input information. The proposed approach achieved competitive results compared to the state-of-the-art in the Stanford Drone Dataset (SDD) for long-term trajectory forecasting, using five predicted trajectories. For critical applications, like self-driving cars, it is important to predict several possible future trajectories of each target agent, as it covers a broader range of possible futures, increasing self-driving car safety. Accordingly, the prediction of trajectories is a crucial task to be developed and included in the self-driving cars pipeline.

Year

2021

Creators

Daniela Alves Ridel

Reversão anaglífica - um novo método baseado em cálculo de correspondências robusto a diferenças radiométricas

O processo de recuperação de um par estéreo a partir de um anáglifo, chamado de reversão anaglífica, promove alguns benefícios como: a visualização de imagens e vídeos anaglíficos legados, a independência de dispositivos de visualização, e a economia de volume de dados para fins de armazenamento e transmissão de conteúdo estéreo. Contudo, as técnicas de reversão anaglífica necessitam comparar os canais de cor do anáglifo buscando por correspondências a fim restaurar os canais eliminados durante a codificação anaglífica, o quê é uma tarefa difícil devido às diferenças radiométricas presentes nesses canais. Os trabalhos relacionados, até onde se tem conhecimento, não oferecem meios especificamente projetados para lidar com essas diferenças, limitando a qualidade final das imagens recuperadas. Assim, este trabalho propõe uma nova técnica de reversão anaglífica que realiza os cálculos de correspondência estéreo por meio de um descritor de pixel robusto às variações radiométricas existentes entre os canais do anáglifo. Testes objetivos e subjetivos realizados indicam que a técnica proposta supera em qualidade os trabalhos considerados estado-da-arte com custo computacional compatível.

Year

2021

Creators

André Luiz Dutra Costa