Repositório RCAAP

Rastreamento de objetos baseado em reconhecimento estrutural de padrões

Diversos problemas práticos envolvendo sistemas de visão computacional, tais como vigilância automatizada, pesquisas de conteúdo específico em bancos de dados multimídias ou edição de vídeo, requerem a localização e o reconhecimento de objetos dentro de seqüências de imagens ou vídeos digitais. Mais formalmente, denomina-se rastreamento o processo de determinação da posição de certo(s) objeto(s) ao longo do tempo numa seqüência de imagens. Já a tarefa de reconhecimento caracteriza-se pela classificação desses objetos de acordo com algum rótulo pré-estabelecido ou apoiada em conhecimento prévio tipicamente introduzido através de um modelo dos objetos de interesse. No entanto, rastrear e classificar objetos em vídeo digital são tarefas desafiadoras, tanto pelas dificuldades inerentes a esse tipo de elemento pictórico, quanto pelo variável grau de complexidade que os quadros sob análise podem apresentar. Este documento apresenta uma metodologia baseada em modelo para rastrear e reconhecer objetos em vídeo digital através de uma representação por grafos relacionais com atributos (ARGs). Tais estruturas surgiram dentro do paradigma de reconhecimento estrutural de padrões e têm se mostrado bastante flexíveis e poderosas para modelar problemas diversos, pois podem transmitir dados quantitativos, relacionais, estruturais e simbólicos. Como modelo e entrada são descritos através desses grafos, a questão de reconhecimento é interpretada como um problema de casamento inexato entre grafos, que consiste em mapear os vértices do ARG de entrada nos vértices do ARG modelo. Em seguida, é realizado o rastreamento dos objetos de acordo com uma transformação afim derivada de parâmetros obtidos da etapa de reconhecimento. Para validar a metodologia proposta, resultados sobre seqüências de imagens digitais, sintéticas e reais, são apresentados e discutidos.

Ano

2007

Creators

Ana Beatriz Vicentim Graciano

Complexidade em programação não linear

No presente trabalho, estudamos e desenvolvemos algoritmos com análise de complexidade de avaliação de pior caso para problemas de programação não linear. Para minimização irrestrita, estabelecemos dois algoritmos semelhantes que exploram modelos de ordem superior com estratégia de regularização. Propusemos uma implementação computacional que preserva as boas propriedades teóricas de complexidade, e fizemos experimentos numéricas com problemas clássicos da literatura, a fim de atestar a implementação e avaliar a aplicabilidade de métodos que empreguem modelos de ordem superior. Para minimização com restrições, estabelecemos um algoritmo de duas fases que converge a pontos que satisfazem condições de otimalidade de primeira ordem não escaladas para o problema de programação não linear.

Ano

2017

Creators

John Lenon Cardoso Gardenghi

Cálculo de reputação em redes sociais a partir de dados da colaboração entre os participantes

Na Web 2.0 são encontrados sistemas com alto volume de interação social. Alguns desses sistemas oferecem cálculo de reputação ou alguma forma de classificação de usuários ou do conteúdo compartilhado. Contudo, em muitos casos, esse valor de reputação resultante é obtido somente a partir de dados quantitativos ou qualitativos. O objetivo deste trabalho é elaborar um modelo para o cálculo de reputação em comunidades on-line, baseando-se em dados qualitativos e quantitativos provenientes da interação dos próprios participantes da rede, a fim de potencializar a colaboração entre os membros e fornecer um meio de cálculo resistente a algumas das vulnerabilidades comuns em sistemas de reputação, como tolerância a ruídos e ataques Sybil. Para atingir esse objetivo é realizada uma adaptação do algoritmo PageRank, definida como CR (Collaborative Reputation) para obter uma ordenação dos usuários a partir de suas interações. Para avaliação, adotamos um conjunto de dados do sítio Epinions.com, com o qual foi realizada uma análise comparativa dos resultados obtidos a partir do modelo proposto com outros três algoritmos correlatos ao trabalho apresentado. Dentre as técnicas usadas na análise estão: diversidade de valores, comparação da ordenação, estudo comparativo de cenários, tolerância a ruídos e robustez contra ataques tipo Sybil. Os algoritmos usados na avaliação são: o PageRank original e o algoritmo ReCop, usados para a identificação de usuários relevantes, e o algoritmo LeaderRank usado para a identificação dos usuários com maior prestígio na rede. Os resultados indicam que o modelo proposto é mais sensível às interações dos usuários em comparação aos outros modelos usados na avaliação, mas é mais eficiente a ataques Sybil.

Ano

2012

Creators

Edith Zaida Sonco Mamani

Revisão de modelos formais de sistemas de estados finitos

Neste trabalho apresentamos uma implementação de revisão de crenças baseada em comparação de modelos (estados) em uma ferramenta de verificação automática de sistemas de estados finitos. Dada uma fórmula (na lógica CTL) inconsistente com o modelo do sistema, revisamos esse modelo de tal maneira que essa fórmula temporal se torne verdadeira. Como temos oito operadores temporais (AG, AF, AX, AU, EG, EF, EX e EU), foram criados algoritmos especícos para cada um deles. Como o modelo do sistema deriva do seu código na linguagem SMV, a sua revisão passa obrigatoriamente por mudanças na sua descrição. A nossa implementação contempla três tipos de mudanças: acréscimo de linhas, eliminação de linhas e mudança no estado inicial, sendo que as duas primeiras provocam modicações nas transições entre os estados que compõe o modelo. Alguns testes foram aplicados para comprovar a contribuição da revisão de crenças (revisão de modelos) como ferramenta de auxílio ao usuário durante o processo de modelagem de sistemas.

Ano

2007

Creators

Thiago Carvalho de Sousa

Uso de ontologias e mapas conceituais na descoberta e análise de objetos de aprendizagem: um estudo de caso em eletrostática

A falta de materiais instrucionais digitais disponíveis em larga escala e com baixo custo levou à criação da tecnologia de Objetos de Aprendizagem (OAs) [Wiley 2000]. Nessa tecnologia, materiais para ensino e aprendizagem são construídos na forma de pequenos componentes (objetos) para que possam ser combinados de várias maneiras diferentes, ou seja, possam ser reutilizados na composição de seqüências didáticas que cubram um determinado domínio de aprendizagem, por exemplo, Geometria Euclidiana ou Eletrostática. Nessa visão, cabe ao professor (ou ao próprio aluno) decidir qual é a seqüência de OAs mais adequada para um determinado contexto instrucional (ou de acordo com as preferências do aluno). OAs podem estar disponíveis em grandes repositórios na Internet, de maneira que qualquer usuário - professor ou estudante - possa buscá-los e recuperá-los de acordo com suas necessidades. Para tornar a busca e recuperação mais ecientes, cada objeto precisa ser descrito num formato padrão o que permite a sua utilização em diversas plataformas. Atualmente, cada uma das tarefas associadas à descoberta e utilização de OAs é realizada de forma não automatizada, ou seja, um professor ao elaborar um curso, deve fazer uma busca nos repositórios de OAs disponíveis, ou na própria Web, e selecionar os objetos de interesse. Nessa etapa, é preciso que o professor analise cada OA recuperado a m de decidir: (a) se ele satisfaz ou não os objetivos didáticos em questão; (b) em que ponto do curso o OA pode ser inserido, dadas as suposições sobre o conhecimento prévio feitas no projeto de construção do OA; (c) qual é o nível de diculdade, o contexto instrucional e o tipo de recurso de aprendizagem do OA desejados (por exemplo, exercício, simulação, notas de aula, testes etc.). Além disso, quando o professor faz a busca por OAs, ele utiliza somente palavras-chave, sem nenhuma referência sobre a estrutura do domínio de conhecimento. Essa é a principal limitação dessa tecnologia: não existem padrões para a representação do conteúdo de um OA, que possibilite automatizar a recuperação e análise de OAs em termos do seu conteúdo relacionado ao domínio no qual ele se insere. Esse trabalho propõe uma ferramenta, chamada SEQUOA (Seqüenciamento de OAs), que dê suporte ao professor para a tarefa de seleção e composição de OAs, com base na tecnologia da Web Semântica. Com esse objetivo, foi feito um estudo de caso para o domínio da Eletrostática. Foram construídas ontologias para: formalizar as descrições de OAs, baseando-se em padrões largamente adotados, e descrever o domínio de aprendizagem de uma maneira didática (segundo educadores experientes no domínio em questão). O uso dessas ontologias permite que a ferramenta SEQUOA seja capaz de realizar inferências sobre as diferentes características dos OAs e gerar um conjunto de seqüências alternativas de OAs, para um determinado domínio de aprendizagem, promovendo assim o reuso de OAs.

Ano

2007

Creators

Andréia Cristina Grisolio Machion

Classificação semi-automática de componentes Java

As recentes tecnologias de desenvolvimento e distribuição de componentes possibilitaram o aumento do número de componentes disponíveis no mercado. No entanto, eles muitas vezes estão dispersos e não publicados adequadamente para a comunidade de pesquisa e desenvolvimento de software. Encontrar componentes apropriados para solucionar um problema particular não é uma tarefa simples e novas técnicas devem ser desenvolvidas para o reuso efetivo de componentes. Um dos maiores desafios em reusar componentes consiste em classificá-los corretamente para futuras consultas. Classificar componentes para possibilitar uma busca eficaz depende da qualidade das informações adquiridas, que viabilizam melhor precisão e cobertura das consultas ao encontrar componentes reutilizáveis em potencial. Ao mesmo tempo, mecanismos de classificação e busca devem ser fáceis o suficiente para convencer os desenvolvedores a reusar componentes. Este trabalho estuda as técnicas de classificação de componentes de software, repositórios e métodos de busca. é apresentada uma proposta de modelo de classificação de componentes que considera não apenas sua função, mas o negócio onde ele está inserido e seus atributos de qualidade. Um método de preenchimento semi-automático das informações é proposto, de modo a diminuir os custos de classificação. O protótipo REUSE+ foi construído para exemplificar o uso do modelo e do método de classificação semi-automática, de forma a validar a proposta, destacando, por fim, as principais contribuições do trabalho.

Ano

2006

Creators

Claudia de Oliveira Melo

Coeficientes de determinação, predição intrinsicamente multivariada e genética

Esta dissertação de mestrado tem como finalidade descrever o trabalho realizado em uma pesquisa que envolve a análise de expressões gênicas provenientes de microarrays com o objetivo de encontrar genes importantes em um organismo ou em uma determinada doença, como o câncer. Acreditamos que a descoberta desses genes, que chamamos aqui de genes de predição intrinsicamente multivariada (genes IMP), possa levar a descobertas de importantes processos biológicos ainda não conhecidos na literatura. A busca por genes IMP foi realizada em conjunto com estudos de modelos e conceitos matemáticos e estatísticos como redes Booleanas, cadeias de Markov, Coeficiente de Determinação (CoD), Classificação em análise de expressões gênicas e métodos de estimação de erro. No modelo de redes Booleanas, introduzido na Biologia por Kauffman, as expressões gênicas são quantizadas em apenas dois níveis: \"ligado\'\' ou \"desligado\'\'. O nível de expressão (estado) de cada gene, está relacionado com o estado de alguns outros genes através de uma função lógica. Adicionando uma perturbação aleatória a este modelo, temos um modelo mais geral conhecido como redes Booleanas com perturbação. O sistema dinâmico representado pela rede é uma cadeia de Markov ergódica e existe então uma distribuição de probabilidade estacionária. Temos a hipótese de que os experimentos de microarray seguem esta distribuição estacionária. O CoD é uma medida normalizada de quanto a expressão de um gene alvo pode ser melhor predita observando-se a expressão de um conjunto de genes preditores. Uma determinada configuração de CoDs caracteriza um gene alvo como sendo um gene IMP. Podemos trabalhar não somente com genes alvo, mas também com fenótipos alvo, onde o fenótipo de um sistema biológico poderia ser representado por uma variável aleatória binária. Por exemplo, podemos estar interessados em saber quais genes estão relacionados ao fenótipo de vida/morte de uma célula. Como a distribuição de probabilidade das amostras de microarray é desconhecida, o estudo dos CoDs é feito através de estimativas. Entre os métodos de estimação de erro estudados para este propósito podemos citar: Holdout, Resubstituição, Cross-validation, Bootstrap e .632 Bootstrap. Os métodos foram implementados para calcular os CoDs, permitindo então a busca por genes IMP. Os programas implementados na pesquisa foram usados em conjunto com uma pesquisa realizada pelo Prof. Dr. Hugo A. Armelin do Instituto de Química da USP. Este estudo em particular envolve a busca de genes importantes relacionados à morte de células tumorigênicas de camundongo disparada por FGF2 (Fibroblast Growth Factor 2). Nesta pesquisa observamos sub-redes de genes envolvidos no processo biológico em questão e também encontramos genes que podem estar relacionados ao fenômeno de morte das células de camundongo ou que estão, de fato, participando de alguma via disparada pelo FGF2. Esta abordagem de análise de expressões gênicas, juntamente com a pesquisa realizada pelo Prof. Armelin, resulta em uma metodologia para buscas de genes envolvidos em novos mecanismos de células tumorigênicas, ativados pelo FGF2. Na realidade esta metodologia pode ser aplicada em qualquer processo biológico de interesse científico, desde que seja possível modelar o problema proposto no contexto de redes Booleanas, coeficientes de determinação e genes IMP.

Ano

2006

Creators

Carlos Henrique Aguena Higa

Visualização de tags para explicar e filtrar recomendações de músicas

Coleções digitais de mídias, tanto pessoais como online, crescem rapidamente. Para que grandes quantidades de músicas sejam acessíveis à usuários, serviços populares como iTunes, Last.fm e Pandora oferecem recomendações. Essa abordagem livra usuários de lembrarem de músicas, e permite a descoberta de canções novas ou esquecidas. Mas recomendações apresentam problemas com usuários, como credibilidade e falta de controle. A motivação deste trabalho é melhorar a experiência de usuários com recomendações de música através do uso de explicações. Ao usar um sistema de recomendação, a satisfação e aprovação de usuários não depende só da eficácia do algoritmo, mas também de explicações. Pesquisas mostram que estas podem beneficiar sistemas de recomendação, aumentando a credibilidade e satisfação de usuários, ao oferecer mais transparência e formas de correção. O objetivo deste trabalho é projetar e desenvolver uma nova forma de visualização de tags, e testar sua viabilidade para explicar e filtrar recomendações de músicas. Mais precisamente, investigamos se esta visualização pode favorecer as metas de inspeção (scrutability), eficiência, eficácia e satisfação. A partir da pesquisa em necessidades de usuários para recomendações e música, a visualização Tag Strings foi projetada e desenvolvida. Tag Strings inclui tanto a interface da visualização, quanto o processo de coleta e cálculo de relevância de tags e músicas. Para a avaliação da visualização Tag Strings, dois tipos de experimentos foram construídos: a comparação entre uma lista de recomendações com Tag Strings, e a comparação entre o design de referência (baseado nos serviços Last.fm e Pandora) e Tag Strings. A construção desses dois experimentos permitiu a avaliação de Tag Strings como uma forma de explicação para recomendações de música. Os resultados dos experimentos evidenciam que a nova forma de visualização Tag Strings favorece as metas de inspeção (scrutability), eficiência, eficácia e satisfação, melhorando a usabilidade e experiência de usuários com recomendações de música.

Ano

2013

Creators

Juliana Sato Yamashita

"Projeto multirresolução de operadores morfológicos a partir de exemplos"

Resolver um problema de processamento de imagens pode ser uma tarefa bastante complexa. Em geral, isto depende de diversos fatores, como o conhecimento, experiência e intuição de um especialista, e o conhecimento do domínio da aplicação em questão. Motivados por tal complexidade, alguns grupos de pesquisa têm trabalhado na criação de técnicas para projetar operadores de imagens automaticamente, a partir de uma coleção de exemplos de entrada e saída do operador desejado. A abordagem multirresolução tem sido empregada com sucesso no projeto estatístico de W-operadores de janelas grandes. Esta metodologia usa uma estrutura piramidal de janelas para auxiliar na estimação das distribuições de probabilidade condicional para padrões não observados no conjunto de treinamento. No entanto, a qualidade do operador projetado depende diretamente da pirâmide escolhida. Tal escolha é feita pelo projetista a partir de sua intuição e de seu conhecimento prévio sobre o problema. Neste trabalho, investigamos o uso da entropia condicional como um critério para determinar automaticamente uma boa pirâmide a ser usada no projeto do W-operador. Para isto, desenvolvemos uma técnica que utiliza o arcabouço piramidal multirresolução como um modelo na estimação da distribuição conjunta de probabilidades. Experimentos com o problema de reconhecimento de dígitos manuscritos foram realizados para avaliar o desempenho do método. Utilizamos duas bases de dados diferentes, com bons resultados. Além disso, outra contribuição deste trabalho foi a experimentação com mapeamentos de resolução da teoria de pirâmides de imagens no contexto do projeto de W-operadores multirresolução.

Ano

2006

Creators

Daniel André Vaquero

Experiências com desenvolvimento ágil

A crescente demanda por sistemas e a alta velocidade com que seus requisitos evoluem têm evidenciado que desenvolvimento de software exige flexibilidade, pois muitas decisões precisam ser tomadas durante o projeto. Além disso, as dificuldades para a produção de sistemas vão muito além das questões técnicas. Fatores estratégicos, comerciais e humanos são responsáveis por algumas das variáveis que contribuem para tornar o desenvolvimento de sistemas de software uma atividade altamente complexa. Modelos tradicionais de desenvolvimento de software propõem processos prescritivos que não consideram toda essa complexidade. Por outro lado, Métodos Ágeis de desenvolvimento de software sugerem uma abordagem mais humanística com foco na entrega rápida e constante de software com valor de negócios. Porém, para conseguir isto, é preciso escolher um conjunto de práticas de desenvolvimento adequado às características do projeto e da equipe. Desta forma, a natureza única de cada projeto e a necessidade de alta qualidade e produtividade tornam importante a busca por práticas de desenvolvimento. A partir de projetos que conduzimos usando métodos ágeis na academia e na indústria, identificamos e descrevemos 22 práticas para desenvolvimento de software que podem ser adotadas por equipes para aumentar o seu desempenho e/ou a qualidade do software.

Ano

2008

Creators

Dairton Luiz Bassi Filho

Algoritmos para problemas de programação não-linear com variáveis inteiras e contínuas.

Muitos problemas de otimização envolvem tanto variáveis inteiras quanto contínuas e podem ser modelados como problemas de programação não-linear inteira mista. Problemas dessa natureza aparecem com freqüência em engenharia química e incluem, por exemplo, síntese de processos, projeto de colunas de destilação, síntese de rede de trocadores de calor e produção de óleo e gás. Neste trabalho, apresentamos algoritmos baseados em Lagrangianos Aumentados e branch and bound para resolver problemas de programação não-linear inteira mista. Duas abordagens são consideradas. Na primeira delas, um algoritmo do tipo Lagrangianos Aumentados é usado como método para resolver os problemas de programação não-linear que aparecem em cada um dos nós do método branch and bound. Na segunda abordagem, usamos o branch and bound para resolver os problemas de minimização em caixas com variáveis inteiras que aparecem como subproblemas do método de Lagrangianos Aumentados. Ambos os algoritmos garantem encontrar a solução ótima de problemas convexos e oferecem recursos apropriados para serem usados na resolução de problemas não convexos, apesar de não haver garantia de otimalidade nesse caso. Apresentamos um problema de empacotamento de retângulos em regiões convexas arbitrárias e propomos modelos para esse problema que resultam em programas não-lineares com variáveis inteiras e contínuas. Realizamos alguns experimentos numéricos e comparamos os resultados obtidos pelo método descrito neste trabalho com os resultados alcançados por outros métodos. Também realizamos experimentos com problemas de programação não-linear inteira mista encontrados na literatura e comparamos o desempenho do nosso método ao de outro disponível publicamente.

Ano

2009

Creators

Rafael Durbano Lobato

Rastreamento de componentes conexas em vídeo 3D para obtenção de estruturas tridimensionais

Este documento apresenta uma dissertação sobre o desenvolvimento de um sistema de integração de dados para geração de estruturas tridimensionais a partir de vídeo 3D. O trabalho envolve a extensão de um sistema de vídeo 3D em tempo real proposto recentemente. Esse sistema, constituído por projetor e câmera, obtém imagens de profundidade de objetos por meio da projeção de slides com um padrão de faixas coloridas. Tal procedimento permite a obtenção, em tempo real, tanto do modelo 2,5 D dos objetos quanto da textura dos mesmos, segundo uma técnica denominada luz estruturada. Os dados são capturados a uma taxa de 30 quadros por segundo e possuem alta qualidade: resoluções de 640 x 480 pixeis para a textura e de 90 x 240 pontos (em média) para a geometria. A extensão que essa dissertação propõe visa obter o modelo tridimensional dos objetos presentes em uma cena por meio do registro dos dados (textura e geometria) dos diversos quadros amostrados. Assim, o presente trabalho é um passo intermediário de um projeto maior, no qual pretende-se fazer a reconstrução dos modelos por completo, bastando para isso apenas algumas imagens obtidas a partir de diferentes pontos de observação. Tal reconstrução deverá diminuir a incidência de pontos de oclusão (bastante comuns nos resultados originais) de modo a permitir a adaptação de todo o sistema para objetos móveis e deformáveis, uma vez que, no estado atual, o sistema é robusto apenas para objetos estáticos e rígidos. Até onde pudemos averiguar, nenhuma técnica já foi aplicada com este propósito. Este texto descreve o trabalho já desenvolvido, o qual consiste em um método para detecção, rastreamento e casamento espacial de componentes conexas presentes em um vídeo 3D. A informação de imagem do vídeo (textura) é combinada com posições tridimensionais (geometria) a fim de alinhar partes de superfícies que são vistas em quadros subseqüentes. Esta é uma questão chave no vídeo 3D, a qual pode ser explorada em diversas aplicações tais como compressão, integração geométrica e reconstrução de cenas, dentre outras. A abordagem que adotamos consiste na detecção de características salientes no espaço do mundo, provendo um alinhamento de geometria mais completo. O processo de registro é feito segundo a aplicação do algoritmo ICP---Iterative Closest Point---introduzido por Besl e McKay em 1992. Resultados experimentais bem sucedidos corroborando nosso método são apresentados.

Ano

2007

Creators

David da Silva Pires

GAVEL: a sanction-based regulation mechanism for normative multiagent systems

The use of a normative approach to govern multiagent systems (MAS) has been motivated by the increasing interest in balancing between agents\' autonomy and global system control. In normative multiagent systems (NMAS), despite the existence of norms specifying rules about how agents ought or ought not to behave, agents have the autonomy to decide whether or not to act in compliance with such norms. A suitable way to govern agents is using sanction-based enforcement mechanisms. These mechanisms allow agents autonomy while maintaining a certain system control level through sanction applications. However, most enforcement mechanisms found in the literature lack support for the association of norm compliance or violation to different sanction categories and strength, thus refraining agents from sanction reasoning and decision capabilities. An exception is the model proposed by Nardin et al. (2016). Based on this latter model, this thesis presents an operational sanctioning enforcement framework, named GAVEL, which endows agents with the capability to decide for the most appropriate sanctions to apply, depending on their context assessed by a set of decision factors. The advantages of applying different sanctions categories and strength are illustrated by a case study from the domain of economics, namely the public goods game (PGG). The experimental results show that allowing agents to decide between material and social sanctions leads to similar cooperation rates but greater wealth levels in comparison to solely using material sanction.

Ano

2019

Creators

Igor Conrado Alves de Lima

Reparo de plano por refinamento reverso

Um agente de planejamento em Inteligência Artificial deve estar preparado para lidar com aspectos dinâmicos do domínio, ou seja, com os efeitos de suas ações, bem como com mudanças provocadas por outros agentes (eventos exógenos). Neste caso, é possível identificar duas situações distintas: todas as informações necessárias sobre a dinâmica do ambiente são, de alguma forma, modeladas pelo agente e consideradas durante o planejamento; ou o agente não possui conhecimento completo do ambiente, sendo que as ações exógenas só são percebidas durante a execução do plano. Neste último caso, podem ocorrer falhas na execução das ações do agente, por exemplo, as pré-condições nas quais o plano se baseia deixam de ser verdadeiras e a meta do agente pode não ser mais alcançável. Para garantir que o agente saia da situação de plano inválido e alcance seu conjunto de metas originais, é preciso fazer um \"reparo de plano\" ou \"replanejamento\". Enquanto no replanejamento o agente abandona o plano original e constrói um novo plano para o estado atual, o reparo de plano tenta fazer um compromisso com o plano original, gerando o menor número de mudanças possível para que o novo plano atinja as metas do problema original. O processo de reparo de plano envolve duas operações básicas: (a) remover do plano as ações que estejam impedindo a execução do mesmo e (b) adicionar novas ações a fim de atingir as metas. A proposta deste trabalho é aplicar e implementar o método de reparo de plano chamado de \"refinamento reverso\". O sistema de reparo implementado será capaz de realizar duas operações: adicionar ações por meio dos procedimentos clássicos de refinamento de planos e remover ações por refinamento reverso com a adição de heurísticas para melhorar o desempenho da tarefa de reparo.

Ano

2008

Creators

David Robert Camargo de Campos

Planejamento hierárquico sob incerteza Knightiana

Esta dissertação tem como objetivo estudar a combinação de duas técnicas de planejamento em inteligência artificial: planejamento hierárquico e planejamento sob incerteza Knightiana. Cada uma delas possui vantagens distintas, mas que podem ser combinadas, permitindo um ganho de eficiência para o planejamento sob incerteza e maior robustez a planos gerados por planejadores hierárquicos. Primeiramente, estudamos um meio de efetuar uma transformação, de modo sistemático, que permite habilitar algoritmos de planejamento determinístico com busca progressiva no espaço de estados a tratar problemas com ações não-determinísticas, sem considerar a distribuição de probabilidades de efeitos das ações (incerteza Knightiana). Em seguida, esta transformação é aplicada a um algoritmo de planejamento hierárquico que efetua decomposição a partir das tarefas sem predecessoras, de modo progressivo. O planejador obtido é competitivo com planejadores que representam o estado-da-arte em planejamento sob incerteza, devido à informação adicional que pode ser fornecida ao planejador, na forma de métodos de decomposição de tarefas.

Ano

2008

Creators

Ricardo Guimaraes Herrmann

Detecção de violações de SLA em coreografias de serviços Web

Coreografias de serviços Web representam uma forma mais escalável e flexível de compor serviços do que uma abordagem centralizada como a orquestração, e seu papel na integração e comunicação de sistemas de larga escala é vital para os objetivos da SOC (Computação Orientada a Serviços) e da Internet do Futuro. Atualmente coreografias de serviços Web possuem vários desafios de pesquisa, dos quais a qualidade de serviço (QoS) e o monitoramento de coreografias de serviçosWeb são linhas importantes. O objetivo deste trabalho é propor e implementar um mecanismo de monitoramento não intrusivo de coreografias de serviços Web baseado em SLAs (Acordos de Nível de Serviço) que especificam as restrições de atributos de QoS de maneira probabilística. Esta dissertação propõe um mecanismo para coreografias de serviços Web que: (1) define requisitos de QoS; (2) especifica contratos probabilísticos sobre parâmetros de QoS usando SLA; e (3) realiza um monitoramento não intrusivo de coreografias de serviços Web para detectar violações de SLA.

Ano

2013

Creators

Victoriano Alfonso Phocco Diaz

Uso eficaz de métricas em métodos ágeis de desenvolvimento de software

Os Métodos Ágeis surgiram no final da década passada como uma alternativa aos métodos tradicionais de desenvolvimento de software. Eles propõem uma nova abordagem para o desenvolvimento, eliminando gastos com documentação excessiva e burocrática, enfatizando a comunicação, colaboração com o cliente e as atividades que trazem valor imediato na produção de software com qualidade. Por meio de um processo empírico, com ciclos constantes de inspeção e adaptação, a equipe trabalha sempre num ambiente de melhoria contínua. Uma das atividades propostas pela Programação Extrema (XP) para guiar a equipe em direção à melhoria é conhecida como tracking. O papel do tracker é coletar métricas para auxiliar a equipe a entender o andamento do projeto. Encontrar maneiras eficazes de avaliar o processo e a equipe de desenvolvimento não é uma tarefa simples. Além disso, alguns dos possíveis problemas não são facilmente reconhecidos a partir de dados quantitativos. Este trabalho investiga o uso de métricas no acompanhamento de projetos utilizando Métodos Ágeis de desenvolvimento de software. Um estudo de caso da aplicação de XP em sete projetos acadêmicos e governamentais foi conduzido para validar algumas dessas métricas e para avaliar o nível de aderência às práticas propostas, com o objetivo de auxiliar o tracker de uma equipe ágil.

Ano

2007

Creators

Danilo Toshiaki Sato

Anotação e classificação automática de entidades nomeadas em notícias esportivas em Português Brasileiro

O objetivo deste trabalho é desenvolver uma plataforma para anotação e classificação automática de entidades nomeadas para notícias escritas em português do Brasil. Para restringir um pouco o escopo do treinamento e análise foram utilizadas notícias esportivas do Campeonato Paulista de 2011 do portal UOL (Universo Online). O primeiro artefato desenvolvido desta plataforma foi a ferramenta WebCorpus. Esta tem como principal intuito facilitar o processo de adição de metainformações a palavras através do uso de uma interface rica web, elaborada para deixar o trabalho ágil e simples. Desta forma as entidades nomeadas das notícias são anotadas e classificadas manualmente. A base de dados foi alimentada pela ferramenta de aquisição e extração de conteúdo desenvolvida também para esta plataforma. O segundo artefato desenvolvido foi o córpus UOLCP2011 (UOL Campeonato Paulista 2011). Este córpus foi anotado e classificado manualmente através do uso da ferramenta WebCorpus utilizando sete tipos de entidades: pessoa, lugar, organização, time, campeonato, estádio e torcida. Para o desenvolvimento do motor de anotação e classificação automática de entidades nomeadas foram utilizadas três diferentes técnicas: maximização de entropia, índices invertidos e métodos de mesclagem das duas técnicas anteriores. Para cada uma destas foram executados três passos: desenvolvimento do algoritmo, treinamento utilizando técnicas de aprendizado de máquina e análise dos melhores resultados.

Ano

2012

Creators

Rodrigo Constantin Ctenas Zaccara

Inferência de redes de regulação gênica utilizando o paradigma de crescimento de sementes

Um problema importante na área de Biologia Sistêmica é o de inferência de redes de regulação gênica. Os avanços científicos e tecnológicos nos permitem analisar a expressão gênica de milhares de genes simultaneamente. Por \"expressão gênica\'\', estamos nos referindo ao nível de mRNA dentro de uma célula. Devido a esta grande quantidade de dados, métodos matemáticos, estatísticos e computacionais têm sido desenvolvidos com o objetivo de elucidar os mecanismos de regulação gênica presentes nos organismos vivos. Para isso, modelos matemáticos de redes de regulação gênica têm sido propostos, assim como algoritmos para inferir estas redes. Neste trabalho, focamos nestes dois aspectos: modelagem e inferência. Com relação à modelagem, estudamos modelos existentes para o ciclo celular da levedura (Saccharomyces cerevisiae). Após este estudo, propomos um modelo baseado em redes Booleanas probabilísticas sensíveis ao contexto, e em seguida, um aprimoramento deste modelo, utilizando cadeias de Markov não homogêneas. Mostramos os resultados, comparando os nossos modelos com os modelos estudados. Com relação à inferência, propomos um novo algoritmo utilizando o paradigma de crescimento de semente de genes. Neste contexto, uma semente é um pequeno subconjunto de genes de interesse. Nosso algoritmo é baseado em dois passos: passo de crescimento de semente e passo de amostragem. No primeiro passo, o algoritmo adiciona outros genes à esta semente, seguindo algum critério. No segundo, o algoritmo realiza uma amostragem de redes, definindo como saída um conjunto de redes potencialmente interessantes. Aplicamos o algoritmo em dados artificiais e dados biológicos de células HeLa, mostrando resultados satisfatórios.

Ano

2012

Creators

Carlos Henrique Aguena Higa

Decomposição de grafos em caminhos

Uma decomposição de um grafo G é um conjunto D = {H_1,... , H_k } de subgrafos de G dois-a-dois aresta-disjuntos que cobre o conjunto das arestas de G. Se H_i é isomorfo a um grafo fixo H, para 1<=i<=k, então dizemos que D é uma H-decomposição de G. Neste trabalho, estudamos o caso em que H é um caminho de comprimento fixo. Para isso, primeiramente decompomos o grafo dado em trilhas, e depois fazemos uso de um lema de desemaranhamento, que nos permite transformar essa decomposição em trilhas numa decomposição somente em caminhos. Com isso, obtemos resultados para três conjecturas sobre H-decomposição de grafos no caso em que H=P_\\ell é o caminho de comprimento \\ell. Dois desses resultados resolvem versões fracas das Conjecturas de Kouider e Lonc (1999) e de Favaron, Genest e Kouider (2010), ambas para grafos regulares. Provamos que, para todo inteiro positivo \\ell, (i) existe um inteiro positivo m_0 tal que se G é um grafo 2m\\ell-regular com m>=m_0, então G admite uma P_\\ell-decomposição; (ii) se \\ell é ímpar, existe um inteiro positivo m_0 tal que se G é um grafo m\\ell-regular com m>=m_0, e G contém um m-fator, então G admite uma P_\\ell-decomposição. O terceiro resultado diz respeito a grafos altamente aresta- conexos: existe um inteiro positivo k_\\ell tal que se G é um grafo k_\\ell-aresta-conexo cujo número de arestas é divisível por \\ell, então G admite uma P_\\ell-decomposição. Esse resultado prova que a Decomposition Conjecture de Barát e Thomassen (2006), formulada para árvores, é verdadeira para caminhos.

Ano

2016

Creators

Fábio Happ Botler