Repositório RCAAP

Assessment of fun from the analysis of facial images

This work investigates the feasibility of assessing fun from only the computational analysis of facial images captured from low-cost webcams. The study and development was based on a set of videos recorded from the faces of voluntary participants as they played three different popular independent games (horror, action/platform and puzzle). The participants also self-reported on their levels of frustration, immersion and fun in a discrete range [0,4], and answered the reputed Game Experience Questionnaire (GEQ). The faces were found on the videos collected by a face tracking system, developed with existing implementations of the Viola-Jones algorithm for face detection and a variation of the Active Appearance Model (AAM) algorithm for tracking the facial landmarks. Fun was represented in terms of the prototypic emotions and the levels of frustration and immersion. The prototypic emotions were detected with a Support Vector Machine (SVM) trained from existing datasets, and the frustration, immersion and fun levels were detected with a Structured Perceptron trained from the collected data and the self reported levels of each affect, as well as estimations of the gradient of the distance between the face and the camera and the blink rate measured in blinks per minute. The evaluation was supported by a comparison of the self-reported levels of each affect and the answers to GEQ, and performed with measurements of precision and recall obtained in cross-validation tests. The frustration classifier could not obtain a precision above chance, mainly because the collected data didn\'t have enough variability in the reported levels of this affect. The immersion classifier obtained better precision particularly when trained with the estimated blink rate, with a median value of 0.42 and an Interquartile Range (IQR) varying from 0.12 to 0.73. The fun classifier, trained with the detected prototypic emotions and the reported levels of frustration and immersion, obtained the best precision scores, with a median of 0.58 and IQR varying from 0.28 to 0.84. All classifiers suffered from low recall, what was caused by difficulties in the tracking of landmarks and the fact that the emotion classifier was unbalanced due to existing datasets having more samples of neutral and happiness expressions. Nonetheless, a strong indication of the feasibility of assessing fun from recorded videos is in the pattern of variation of the levels predicted. Apart from the frustration classifier, the immersion and the fun classifier were able to predict the increases and decreases of the respective affect levels with an average error margin close to 1.

Ano

2017

Creators

Luiz Carlos Vieira

Xenia: um sistema de segurança para grades computacionais baseado em cadeias de confiança

Os Sistemas de Grades Computacionais são intrinsecamente mais vulneráveis às ameaças de segurança que os Sistemas tradicionais, uma vez que abrangem um grande número de usuários e os recursos e as aplicações são geridas por diferentes domínios administrativos. A autenticação e a autorização são fatores imperativos para os Sistemas de Grade Computacional. Da mesma forma, a escalabilidade e a distribuição de dados vêm também sendo objeto de estudo de vários pesquisadores da área. Os serviços providos pelas Grades Computacionais devem evitar implementações centralizadas pela dificuldade do gerenciamento global. Outro importante requisito das Grades Computacionais é prover mecanismos para a delegação de direitos de acesso aos recursos. O proprietário do recurso deve ser capaz de delegar permissões para outro usuário, talvez por um tempo limitado, com base na confiança que possui neste. No entanto, a delegação deve ser usada com cuidado, pois uma longa cadeia de delegações poderia conduzir a uma utilização abusiva dos recursos pelos usuários maliciosos. Para tratar os principais requisitos de segurança das Grades Computacionais, desenvolvemos uma Arquitetura de Segurança denominada Xenia. Esta arquitetura é baseada em SPKI/SDSI, um modelo de segurança flexível, extensível e descentralizado que fornece autenticação, confidencialidade e controle de acesso. Propusemos uma extensão ao modelo SPKI/SDSI baseada em lógica subjetiva para representar relações de confiança entre indivíduos.

Ano

2008

Creators

José de Ribamar Braga Pinheiro Junior

Modelagem de contextos para aprendizado automático aplicado à análise morfossintática

A etiquetagem morfossintática envolve atribuir às palavras de uma sentença suas classes morfossintáticas de acordo com os contextos em que elas aparecem. Cadeias de Markov de Tamanho Variável (VLMCs, do inglês \"Variable-Length Markov Chains\") oferecem uma forma de modelar contextos maiores que trigramas sem sofrer demais com a esparsidade de dados e a complexidade do espaço de estados. Mesmo assim, duas palavras do português apresentam um alto grau de ambiguidade: \'que\' e \'a\'. O número de erros na etiquetagem dessas palavras corresponde a um quarto do total de erros cometidos por um etiquetador baseado em VLMCs. Além disso, essas palavras parecem apresentar dois diferentes tipos de ambiguidade: um dependendo de contexto não local e outro de contexto direito. Exploramos maneiras de expandir o modelo baseado em VLMCs através do uso de diferentes modelos e métodos, a fim de atacar esses problemas. As abordagens mostraram variado grau de sucesso, com um método em particular (aprendizado guiado) se mostrando capaz de resolver boa parte da ambiguidade de \'a\'. Discutimos razões para isso acontecer. Com relação a \'que\', ao longo desta tese propusemos e testamos diversos métodos de aprendizado de informação contextual para tentar desambiguá-lo. Mostramos como, em todos eles, o nível de ambiguidade de \'que\' permanece praticamente constante.

Ano

2010

Creators

Fábio Natanael Kepler

A framework for device interaction in a network of things

As devices in the IoT are increasing in number and capabilities, there is an opportunity of creating networks of smart devices that go beyond the current cloud-centric model of data-gathering and actuation. The Swarm project provides a middleware to create a bio-inspired distributed and organic network of heterogeneous devices. Under the context of the Swarm project, in this thesis, we aim to create a framework for the interaction of devices, consisting of registration in the network, discovery, composition, and mediation of services. Using semantics as a driving technique, we aim to create a communication framework that facilitates the development of IoT applications in the Swarm, as a first step towards constructing a smart self-organizing network for the future IoT. The proposed framework aims to overcome the problems of interoperability and composition by adapting lightweight open standards with a service-oriented architecture and novel composition and mediation mechanisms. To illustrate the use of our framework, we implemented a use case based on the recruiting of services for a surveillance system. The significant contributions of this thesis can be summarized as: an architecture and implementation for device interaction in the IoT, a lightweight model for semantic service description and semantic querying, a ranking algorithm for service selection in an economy-based IoT network, an ontology for IoT services, and a declarative composition and mediation. To evaluate our work, we used two methods. First, we performed a quantitative comparison between an implementation with and without the use of our framework, then, we conduct a qualitative comparison of features offered by our framework with other similar works.

Ano

2020

Creators

Pablo César Calcina Ccori

Classificação automática de documentos de características econômicas para defesa jurídica

Direito é uma das áreas beneficiadas pelo avanço da Inteligência Artificial, com destaque para automatização de tarefas como previsão de sentenças, diligência prévia, revisão de documentos e análise de propriedade intelectual. O Conselho Administrativo de Defesa Econômica (CADE), entidade vinculada ao Ministério da Justiça do Governo Federal do Brasil, tem como objetivo garantir a livre concorrência de mercado no território nacional. Uma de suas atribuições se dá pela avaliação e, aprovação ou reprovação, de processos de ato de concentração, que devem ser submetidos para avaliação pelo grupo de agentes econômicos envolvidos, quando a operação atende a determinados requisitos. Uma das tarefas iniciais realizadas nesta atividade se dá pela classificação do rito do processo, que pode ser sumário ou ordinário, de acordo com sua complexidade. A automatização da tarefa de classificação do rito pode acarretar menor burocracia, proveniente do menor tempo de avaliação do processo como um todo. Este trabalho visa avaliar técnicas de aprendizado de máquina, bem como de aprendizado profundo, que têm demonstrado melhorias no desempenho das tarefas de processamento de linguagem natural, para construção de modelos de classificação automática do rito de processos de ato de concentração, dividindo o problema em dois grandes subproblemas principais: (i) representação numérica e distribuída de palavras e textos de documentos dos processos e (ii) aprendizado supervisionado para classificação do rito indicado dos processos.

"Processamento distribuído de áudio em tempo real"

Sistemas computadorizados para o processamento de multimídia em tempo real demandam alta capacidade de processamento. Problemas que exigem grandes capacidades de processamento são comumente abordados através do uso de sistemas paralelos ou distribuídos; no entanto, a conjunção das dificuldades inerentes tanto aos sistemas de tempo real quanto aos sistemas paralelos e distribuídos tem levado o desenvolvimento com vistas ao processamento de multimídia em tempo real por sistemas computacionais de uso geral a ser baseado em equipamentos centralizados e monoprocessados. Em diversos sistemas para multimídia há a necessidade de baixa latência durante a interação com o usuário, o que reforça ainda mais essa tendência para o processamento em um único nó. Neste trabalho, implementamos um mecanismo para o processamento síncrono e distribuído de áudio com características de baixa latência em uma rede local, permitindo o uso de um sistema distribuído de baixo custo para esse processamento. O objetivo primário é viabilizar o uso de sistemas computacionais distribuídos para a gravação e edição de material musical em estúdios domésticos ou de pequeno porte, contornando a necessidade de hardware dedicado de alto custo. O sistema implementado consiste em duas partes: uma, genérica, implementada sob a forma de um middleware para o processamento síncrono e distribuído de mídias contínuas com baixa latência; outra, específica, baseada na primeira, voltada para o processamento de áudio e compatível com aplicações legadas através da interface padronizada LADSPA. É de se esperar que pesquisas e aplicações futuras em que necessidades semelhantes se apresentem possam utilizar o middleware aqui descrito para outros tipos de processamento de áudio bem como para o processamento de outras mídias, como vídeo.

Ano

2004

Creators

Nelson Posse Lago

Rastreamento de objetos baseado em reconhecimento estrutural de padrões

Diversos problemas práticos envolvendo sistemas de visão computacional, tais como vigilância automatizada, pesquisas de conteúdo específico em bancos de dados multimídias ou edição de vídeo, requerem a localização e o reconhecimento de objetos dentro de seqüências de imagens ou vídeos digitais. Mais formalmente, denomina-se rastreamento o processo de determinação da posição de certo(s) objeto(s) ao longo do tempo numa seqüência de imagens. Já a tarefa de reconhecimento caracteriza-se pela classificação desses objetos de acordo com algum rótulo pré-estabelecido ou apoiada em conhecimento prévio tipicamente introduzido através de um modelo dos objetos de interesse. No entanto, rastrear e classificar objetos em vídeo digital são tarefas desafiadoras, tanto pelas dificuldades inerentes a esse tipo de elemento pictórico, quanto pelo variável grau de complexidade que os quadros sob análise podem apresentar. Este documento apresenta uma metodologia baseada em modelo para rastrear e reconhecer objetos em vídeo digital através de uma representação por grafos relacionais com atributos (ARGs). Tais estruturas surgiram dentro do paradigma de reconhecimento estrutural de padrões e têm se mostrado bastante flexíveis e poderosas para modelar problemas diversos, pois podem transmitir dados quantitativos, relacionais, estruturais e simbólicos. Como modelo e entrada são descritos através desses grafos, a questão de reconhecimento é interpretada como um problema de casamento inexato entre grafos, que consiste em mapear os vértices do ARG de entrada nos vértices do ARG modelo. Em seguida, é realizado o rastreamento dos objetos de acordo com uma transformação afim derivada de parâmetros obtidos da etapa de reconhecimento. Para validar a metodologia proposta, resultados sobre seqüências de imagens digitais, sintéticas e reais, são apresentados e discutidos.

Ano

2007

Creators

Ana Beatriz Vicentim Graciano

Complexidade em programação não linear

No presente trabalho, estudamos e desenvolvemos algoritmos com análise de complexidade de avaliação de pior caso para problemas de programação não linear. Para minimização irrestrita, estabelecemos dois algoritmos semelhantes que exploram modelos de ordem superior com estratégia de regularização. Propusemos uma implementação computacional que preserva as boas propriedades teóricas de complexidade, e fizemos experimentos numéricas com problemas clássicos da literatura, a fim de atestar a implementação e avaliar a aplicabilidade de métodos que empreguem modelos de ordem superior. Para minimização com restrições, estabelecemos um algoritmo de duas fases que converge a pontos que satisfazem condições de otimalidade de primeira ordem não escaladas para o problema de programação não linear.

Ano

2017

Creators

John Lenon Cardoso Gardenghi

Cálculo de reputação em redes sociais a partir de dados da colaboração entre os participantes

Na Web 2.0 são encontrados sistemas com alto volume de interação social. Alguns desses sistemas oferecem cálculo de reputação ou alguma forma de classificação de usuários ou do conteúdo compartilhado. Contudo, em muitos casos, esse valor de reputação resultante é obtido somente a partir de dados quantitativos ou qualitativos. O objetivo deste trabalho é elaborar um modelo para o cálculo de reputação em comunidades on-line, baseando-se em dados qualitativos e quantitativos provenientes da interação dos próprios participantes da rede, a fim de potencializar a colaboração entre os membros e fornecer um meio de cálculo resistente a algumas das vulnerabilidades comuns em sistemas de reputação, como tolerância a ruídos e ataques Sybil. Para atingir esse objetivo é realizada uma adaptação do algoritmo PageRank, definida como CR (Collaborative Reputation) para obter uma ordenação dos usuários a partir de suas interações. Para avaliação, adotamos um conjunto de dados do sítio Epinions.com, com o qual foi realizada uma análise comparativa dos resultados obtidos a partir do modelo proposto com outros três algoritmos correlatos ao trabalho apresentado. Dentre as técnicas usadas na análise estão: diversidade de valores, comparação da ordenação, estudo comparativo de cenários, tolerância a ruídos e robustez contra ataques tipo Sybil. Os algoritmos usados na avaliação são: o PageRank original e o algoritmo ReCop, usados para a identificação de usuários relevantes, e o algoritmo LeaderRank usado para a identificação dos usuários com maior prestígio na rede. Os resultados indicam que o modelo proposto é mais sensível às interações dos usuários em comparação aos outros modelos usados na avaliação, mas é mais eficiente a ataques Sybil.

Ano

2012

Creators

Edith Zaida Sonco Mamani

Revisão de modelos formais de sistemas de estados finitos

Neste trabalho apresentamos uma implementação de revisão de crenças baseada em comparação de modelos (estados) em uma ferramenta de verificação automática de sistemas de estados finitos. Dada uma fórmula (na lógica CTL) inconsistente com o modelo do sistema, revisamos esse modelo de tal maneira que essa fórmula temporal se torne verdadeira. Como temos oito operadores temporais (AG, AF, AX, AU, EG, EF, EX e EU), foram criados algoritmos especícos para cada um deles. Como o modelo do sistema deriva do seu código na linguagem SMV, a sua revisão passa obrigatoriamente por mudanças na sua descrição. A nossa implementação contempla três tipos de mudanças: acréscimo de linhas, eliminação de linhas e mudança no estado inicial, sendo que as duas primeiras provocam modicações nas transições entre os estados que compõe o modelo. Alguns testes foram aplicados para comprovar a contribuição da revisão de crenças (revisão de modelos) como ferramenta de auxílio ao usuário durante o processo de modelagem de sistemas.

Ano

2007

Creators

Thiago Carvalho de Sousa

Uso de ontologias e mapas conceituais na descoberta e análise de objetos de aprendizagem: um estudo de caso em eletrostática

A falta de materiais instrucionais digitais disponíveis em larga escala e com baixo custo levou à criação da tecnologia de Objetos de Aprendizagem (OAs) [Wiley 2000]. Nessa tecnologia, materiais para ensino e aprendizagem são construídos na forma de pequenos componentes (objetos) para que possam ser combinados de várias maneiras diferentes, ou seja, possam ser reutilizados na composição de seqüências didáticas que cubram um determinado domínio de aprendizagem, por exemplo, Geometria Euclidiana ou Eletrostática. Nessa visão, cabe ao professor (ou ao próprio aluno) decidir qual é a seqüência de OAs mais adequada para um determinado contexto instrucional (ou de acordo com as preferências do aluno). OAs podem estar disponíveis em grandes repositórios na Internet, de maneira que qualquer usuário - professor ou estudante - possa buscá-los e recuperá-los de acordo com suas necessidades. Para tornar a busca e recuperação mais ecientes, cada objeto precisa ser descrito num formato padrão o que permite a sua utilização em diversas plataformas. Atualmente, cada uma das tarefas associadas à descoberta e utilização de OAs é realizada de forma não automatizada, ou seja, um professor ao elaborar um curso, deve fazer uma busca nos repositórios de OAs disponíveis, ou na própria Web, e selecionar os objetos de interesse. Nessa etapa, é preciso que o professor analise cada OA recuperado a m de decidir: (a) se ele satisfaz ou não os objetivos didáticos em questão; (b) em que ponto do curso o OA pode ser inserido, dadas as suposições sobre o conhecimento prévio feitas no projeto de construção do OA; (c) qual é o nível de diculdade, o contexto instrucional e o tipo de recurso de aprendizagem do OA desejados (por exemplo, exercício, simulação, notas de aula, testes etc.). Além disso, quando o professor faz a busca por OAs, ele utiliza somente palavras-chave, sem nenhuma referência sobre a estrutura do domínio de conhecimento. Essa é a principal limitação dessa tecnologia: não existem padrões para a representação do conteúdo de um OA, que possibilite automatizar a recuperação e análise de OAs em termos do seu conteúdo relacionado ao domínio no qual ele se insere. Esse trabalho propõe uma ferramenta, chamada SEQUOA (Seqüenciamento de OAs), que dê suporte ao professor para a tarefa de seleção e composição de OAs, com base na tecnologia da Web Semântica. Com esse objetivo, foi feito um estudo de caso para o domínio da Eletrostática. Foram construídas ontologias para: formalizar as descrições de OAs, baseando-se em padrões largamente adotados, e descrever o domínio de aprendizagem de uma maneira didática (segundo educadores experientes no domínio em questão). O uso dessas ontologias permite que a ferramenta SEQUOA seja capaz de realizar inferências sobre as diferentes características dos OAs e gerar um conjunto de seqüências alternativas de OAs, para um determinado domínio de aprendizagem, promovendo assim o reuso de OAs.

Ano

2007

Creators

Andréia Cristina Grisolio Machion

Classificação semi-automática de componentes Java

As recentes tecnologias de desenvolvimento e distribuição de componentes possibilitaram o aumento do número de componentes disponíveis no mercado. No entanto, eles muitas vezes estão dispersos e não publicados adequadamente para a comunidade de pesquisa e desenvolvimento de software. Encontrar componentes apropriados para solucionar um problema particular não é uma tarefa simples e novas técnicas devem ser desenvolvidas para o reuso efetivo de componentes. Um dos maiores desafios em reusar componentes consiste em classificá-los corretamente para futuras consultas. Classificar componentes para possibilitar uma busca eficaz depende da qualidade das informações adquiridas, que viabilizam melhor precisão e cobertura das consultas ao encontrar componentes reutilizáveis em potencial. Ao mesmo tempo, mecanismos de classificação e busca devem ser fáceis o suficiente para convencer os desenvolvedores a reusar componentes. Este trabalho estuda as técnicas de classificação de componentes de software, repositórios e métodos de busca. é apresentada uma proposta de modelo de classificação de componentes que considera não apenas sua função, mas o negócio onde ele está inserido e seus atributos de qualidade. Um método de preenchimento semi-automático das informações é proposto, de modo a diminuir os custos de classificação. O protótipo REUSE+ foi construído para exemplificar o uso do modelo e do método de classificação semi-automática, de forma a validar a proposta, destacando, por fim, as principais contribuições do trabalho.

Ano

2006

Creators

Claudia de Oliveira Melo

Coeficientes de determinação, predição intrinsicamente multivariada e genética

Esta dissertação de mestrado tem como finalidade descrever o trabalho realizado em uma pesquisa que envolve a análise de expressões gênicas provenientes de microarrays com o objetivo de encontrar genes importantes em um organismo ou em uma determinada doença, como o câncer. Acreditamos que a descoberta desses genes, que chamamos aqui de genes de predição intrinsicamente multivariada (genes IMP), possa levar a descobertas de importantes processos biológicos ainda não conhecidos na literatura. A busca por genes IMP foi realizada em conjunto com estudos de modelos e conceitos matemáticos e estatísticos como redes Booleanas, cadeias de Markov, Coeficiente de Determinação (CoD), Classificação em análise de expressões gênicas e métodos de estimação de erro. No modelo de redes Booleanas, introduzido na Biologia por Kauffman, as expressões gênicas são quantizadas em apenas dois níveis: \"ligado\'\' ou \"desligado\'\'. O nível de expressão (estado) de cada gene, está relacionado com o estado de alguns outros genes através de uma função lógica. Adicionando uma perturbação aleatória a este modelo, temos um modelo mais geral conhecido como redes Booleanas com perturbação. O sistema dinâmico representado pela rede é uma cadeia de Markov ergódica e existe então uma distribuição de probabilidade estacionária. Temos a hipótese de que os experimentos de microarray seguem esta distribuição estacionária. O CoD é uma medida normalizada de quanto a expressão de um gene alvo pode ser melhor predita observando-se a expressão de um conjunto de genes preditores. Uma determinada configuração de CoDs caracteriza um gene alvo como sendo um gene IMP. Podemos trabalhar não somente com genes alvo, mas também com fenótipos alvo, onde o fenótipo de um sistema biológico poderia ser representado por uma variável aleatória binária. Por exemplo, podemos estar interessados em saber quais genes estão relacionados ao fenótipo de vida/morte de uma célula. Como a distribuição de probabilidade das amostras de microarray é desconhecida, o estudo dos CoDs é feito através de estimativas. Entre os métodos de estimação de erro estudados para este propósito podemos citar: Holdout, Resubstituição, Cross-validation, Bootstrap e .632 Bootstrap. Os métodos foram implementados para calcular os CoDs, permitindo então a busca por genes IMP. Os programas implementados na pesquisa foram usados em conjunto com uma pesquisa realizada pelo Prof. Dr. Hugo A. Armelin do Instituto de Química da USP. Este estudo em particular envolve a busca de genes importantes relacionados à morte de células tumorigênicas de camundongo disparada por FGF2 (Fibroblast Growth Factor 2). Nesta pesquisa observamos sub-redes de genes envolvidos no processo biológico em questão e também encontramos genes que podem estar relacionados ao fenômeno de morte das células de camundongo ou que estão, de fato, participando de alguma via disparada pelo FGF2. Esta abordagem de análise de expressões gênicas, juntamente com a pesquisa realizada pelo Prof. Armelin, resulta em uma metodologia para buscas de genes envolvidos em novos mecanismos de células tumorigênicas, ativados pelo FGF2. Na realidade esta metodologia pode ser aplicada em qualquer processo biológico de interesse científico, desde que seja possível modelar o problema proposto no contexto de redes Booleanas, coeficientes de determinação e genes IMP.

Ano

2006

Creators

Carlos Henrique Aguena Higa

Visualização de tags para explicar e filtrar recomendações de músicas

Coleções digitais de mídias, tanto pessoais como online, crescem rapidamente. Para que grandes quantidades de músicas sejam acessíveis à usuários, serviços populares como iTunes, Last.fm e Pandora oferecem recomendações. Essa abordagem livra usuários de lembrarem de músicas, e permite a descoberta de canções novas ou esquecidas. Mas recomendações apresentam problemas com usuários, como credibilidade e falta de controle. A motivação deste trabalho é melhorar a experiência de usuários com recomendações de música através do uso de explicações. Ao usar um sistema de recomendação, a satisfação e aprovação de usuários não depende só da eficácia do algoritmo, mas também de explicações. Pesquisas mostram que estas podem beneficiar sistemas de recomendação, aumentando a credibilidade e satisfação de usuários, ao oferecer mais transparência e formas de correção. O objetivo deste trabalho é projetar e desenvolver uma nova forma de visualização de tags, e testar sua viabilidade para explicar e filtrar recomendações de músicas. Mais precisamente, investigamos se esta visualização pode favorecer as metas de inspeção (scrutability), eficiência, eficácia e satisfação. A partir da pesquisa em necessidades de usuários para recomendações e música, a visualização Tag Strings foi projetada e desenvolvida. Tag Strings inclui tanto a interface da visualização, quanto o processo de coleta e cálculo de relevância de tags e músicas. Para a avaliação da visualização Tag Strings, dois tipos de experimentos foram construídos: a comparação entre uma lista de recomendações com Tag Strings, e a comparação entre o design de referência (baseado nos serviços Last.fm e Pandora) e Tag Strings. A construção desses dois experimentos permitiu a avaliação de Tag Strings como uma forma de explicação para recomendações de música. Os resultados dos experimentos evidenciam que a nova forma de visualização Tag Strings favorece as metas de inspeção (scrutability), eficiência, eficácia e satisfação, melhorando a usabilidade e experiência de usuários com recomendações de música.

Ano

2013

Creators

Juliana Sato Yamashita

"Projeto multirresolução de operadores morfológicos a partir de exemplos"

Resolver um problema de processamento de imagens pode ser uma tarefa bastante complexa. Em geral, isto depende de diversos fatores, como o conhecimento, experiência e intuição de um especialista, e o conhecimento do domínio da aplicação em questão. Motivados por tal complexidade, alguns grupos de pesquisa têm trabalhado na criação de técnicas para projetar operadores de imagens automaticamente, a partir de uma coleção de exemplos de entrada e saída do operador desejado. A abordagem multirresolução tem sido empregada com sucesso no projeto estatístico de W-operadores de janelas grandes. Esta metodologia usa uma estrutura piramidal de janelas para auxiliar na estimação das distribuições de probabilidade condicional para padrões não observados no conjunto de treinamento. No entanto, a qualidade do operador projetado depende diretamente da pirâmide escolhida. Tal escolha é feita pelo projetista a partir de sua intuição e de seu conhecimento prévio sobre o problema. Neste trabalho, investigamos o uso da entropia condicional como um critério para determinar automaticamente uma boa pirâmide a ser usada no projeto do W-operador. Para isto, desenvolvemos uma técnica que utiliza o arcabouço piramidal multirresolução como um modelo na estimação da distribuição conjunta de probabilidades. Experimentos com o problema de reconhecimento de dígitos manuscritos foram realizados para avaliar o desempenho do método. Utilizamos duas bases de dados diferentes, com bons resultados. Além disso, outra contribuição deste trabalho foi a experimentação com mapeamentos de resolução da teoria de pirâmides de imagens no contexto do projeto de W-operadores multirresolução.

Ano

2006

Creators

Daniel André Vaquero

Experiências com desenvolvimento ágil

A crescente demanda por sistemas e a alta velocidade com que seus requisitos evoluem têm evidenciado que desenvolvimento de software exige flexibilidade, pois muitas decisões precisam ser tomadas durante o projeto. Além disso, as dificuldades para a produção de sistemas vão muito além das questões técnicas. Fatores estratégicos, comerciais e humanos são responsáveis por algumas das variáveis que contribuem para tornar o desenvolvimento de sistemas de software uma atividade altamente complexa. Modelos tradicionais de desenvolvimento de software propõem processos prescritivos que não consideram toda essa complexidade. Por outro lado, Métodos Ágeis de desenvolvimento de software sugerem uma abordagem mais humanística com foco na entrega rápida e constante de software com valor de negócios. Porém, para conseguir isto, é preciso escolher um conjunto de práticas de desenvolvimento adequado às características do projeto e da equipe. Desta forma, a natureza única de cada projeto e a necessidade de alta qualidade e produtividade tornam importante a busca por práticas de desenvolvimento. A partir de projetos que conduzimos usando métodos ágeis na academia e na indústria, identificamos e descrevemos 22 práticas para desenvolvimento de software que podem ser adotadas por equipes para aumentar o seu desempenho e/ou a qualidade do software.

Ano

2008

Creators

Dairton Luiz Bassi Filho

Algoritmos para problemas de programação não-linear com variáveis inteiras e contínuas.

Muitos problemas de otimização envolvem tanto variáveis inteiras quanto contínuas e podem ser modelados como problemas de programação não-linear inteira mista. Problemas dessa natureza aparecem com freqüência em engenharia química e incluem, por exemplo, síntese de processos, projeto de colunas de destilação, síntese de rede de trocadores de calor e produção de óleo e gás. Neste trabalho, apresentamos algoritmos baseados em Lagrangianos Aumentados e branch and bound para resolver problemas de programação não-linear inteira mista. Duas abordagens são consideradas. Na primeira delas, um algoritmo do tipo Lagrangianos Aumentados é usado como método para resolver os problemas de programação não-linear que aparecem em cada um dos nós do método branch and bound. Na segunda abordagem, usamos o branch and bound para resolver os problemas de minimização em caixas com variáveis inteiras que aparecem como subproblemas do método de Lagrangianos Aumentados. Ambos os algoritmos garantem encontrar a solução ótima de problemas convexos e oferecem recursos apropriados para serem usados na resolução de problemas não convexos, apesar de não haver garantia de otimalidade nesse caso. Apresentamos um problema de empacotamento de retângulos em regiões convexas arbitrárias e propomos modelos para esse problema que resultam em programas não-lineares com variáveis inteiras e contínuas. Realizamos alguns experimentos numéricos e comparamos os resultados obtidos pelo método descrito neste trabalho com os resultados alcançados por outros métodos. Também realizamos experimentos com problemas de programação não-linear inteira mista encontrados na literatura e comparamos o desempenho do nosso método ao de outro disponível publicamente.

Ano

2009

Creators

Rafael Durbano Lobato

Rastreamento de componentes conexas em vídeo 3D para obtenção de estruturas tridimensionais

Este documento apresenta uma dissertação sobre o desenvolvimento de um sistema de integração de dados para geração de estruturas tridimensionais a partir de vídeo 3D. O trabalho envolve a extensão de um sistema de vídeo 3D em tempo real proposto recentemente. Esse sistema, constituído por projetor e câmera, obtém imagens de profundidade de objetos por meio da projeção de slides com um padrão de faixas coloridas. Tal procedimento permite a obtenção, em tempo real, tanto do modelo 2,5 D dos objetos quanto da textura dos mesmos, segundo uma técnica denominada luz estruturada. Os dados são capturados a uma taxa de 30 quadros por segundo e possuem alta qualidade: resoluções de 640 x 480 pixeis para a textura e de 90 x 240 pontos (em média) para a geometria. A extensão que essa dissertação propõe visa obter o modelo tridimensional dos objetos presentes em uma cena por meio do registro dos dados (textura e geometria) dos diversos quadros amostrados. Assim, o presente trabalho é um passo intermediário de um projeto maior, no qual pretende-se fazer a reconstrução dos modelos por completo, bastando para isso apenas algumas imagens obtidas a partir de diferentes pontos de observação. Tal reconstrução deverá diminuir a incidência de pontos de oclusão (bastante comuns nos resultados originais) de modo a permitir a adaptação de todo o sistema para objetos móveis e deformáveis, uma vez que, no estado atual, o sistema é robusto apenas para objetos estáticos e rígidos. Até onde pudemos averiguar, nenhuma técnica já foi aplicada com este propósito. Este texto descreve o trabalho já desenvolvido, o qual consiste em um método para detecção, rastreamento e casamento espacial de componentes conexas presentes em um vídeo 3D. A informação de imagem do vídeo (textura) é combinada com posições tridimensionais (geometria) a fim de alinhar partes de superfícies que são vistas em quadros subseqüentes. Esta é uma questão chave no vídeo 3D, a qual pode ser explorada em diversas aplicações tais como compressão, integração geométrica e reconstrução de cenas, dentre outras. A abordagem que adotamos consiste na detecção de características salientes no espaço do mundo, provendo um alinhamento de geometria mais completo. O processo de registro é feito segundo a aplicação do algoritmo ICP---Iterative Closest Point---introduzido por Besl e McKay em 1992. Resultados experimentais bem sucedidos corroborando nosso método são apresentados.

Ano

2007

Creators

David da Silva Pires

GAVEL: a sanction-based regulation mechanism for normative multiagent systems

The use of a normative approach to govern multiagent systems (MAS) has been motivated by the increasing interest in balancing between agents\' autonomy and global system control. In normative multiagent systems (NMAS), despite the existence of norms specifying rules about how agents ought or ought not to behave, agents have the autonomy to decide whether or not to act in compliance with such norms. A suitable way to govern agents is using sanction-based enforcement mechanisms. These mechanisms allow agents autonomy while maintaining a certain system control level through sanction applications. However, most enforcement mechanisms found in the literature lack support for the association of norm compliance or violation to different sanction categories and strength, thus refraining agents from sanction reasoning and decision capabilities. An exception is the model proposed by Nardin et al. (2016). Based on this latter model, this thesis presents an operational sanctioning enforcement framework, named GAVEL, which endows agents with the capability to decide for the most appropriate sanctions to apply, depending on their context assessed by a set of decision factors. The advantages of applying different sanctions categories and strength are illustrated by a case study from the domain of economics, namely the public goods game (PGG). The experimental results show that allowing agents to decide between material and social sanctions leads to similar cooperation rates but greater wealth levels in comparison to solely using material sanction.

Ano

2019

Creators

Igor Conrado Alves de Lima

Reparo de plano por refinamento reverso

Um agente de planejamento em Inteligência Artificial deve estar preparado para lidar com aspectos dinâmicos do domínio, ou seja, com os efeitos de suas ações, bem como com mudanças provocadas por outros agentes (eventos exógenos). Neste caso, é possível identificar duas situações distintas: todas as informações necessárias sobre a dinâmica do ambiente são, de alguma forma, modeladas pelo agente e consideradas durante o planejamento; ou o agente não possui conhecimento completo do ambiente, sendo que as ações exógenas só são percebidas durante a execução do plano. Neste último caso, podem ocorrer falhas na execução das ações do agente, por exemplo, as pré-condições nas quais o plano se baseia deixam de ser verdadeiras e a meta do agente pode não ser mais alcançável. Para garantir que o agente saia da situação de plano inválido e alcance seu conjunto de metas originais, é preciso fazer um \"reparo de plano\" ou \"replanejamento\". Enquanto no replanejamento o agente abandona o plano original e constrói um novo plano para o estado atual, o reparo de plano tenta fazer um compromisso com o plano original, gerando o menor número de mudanças possível para que o novo plano atinja as metas do problema original. O processo de reparo de plano envolve duas operações básicas: (a) remover do plano as ações que estejam impedindo a execução do mesmo e (b) adicionar novas ações a fim de atingir as metas. A proposta deste trabalho é aplicar e implementar o método de reparo de plano chamado de \"refinamento reverso\". O sistema de reparo implementado será capaz de realizar duas operações: adicionar ações por meio dos procedimentos clássicos de refinamento de planos e remover ações por refinamento reverso com a adição de heurísticas para melhorar o desempenho da tarefa de reparo.

Ano

2008

Creators

David Robert Camargo de Campos