Repositório RCAAP

Implantação automatizada de composições de serviços web de grande escala

A implantação de composições de serviços web de grande escala apresentam vários desafios, tais como falhas corriqueiras na infraestrutura, heterogeneidade tecnológica, distribuição do sistema por diferentes organizações e atualização frequente dos serviços em operação. Nesta dissertação, estudamos como uma implantação automatizada baseada em middleware pode auxiliar na superação de tais desafios. Para isso, desenvolvemos o CHOReOS Enactment Engine, um sistema de middleware que possibilita a implantação distribuída e automatizada de composições de serviços web em uma infraestrutura virtualizada, operando no modelo de computação em nuvem denominado Plataforma como um Serviço. O middleware desenvolvido é avaliado qualitativamente em comparação a abordagens de implantação ad-hoc e quantitativamente pela sua escalabilidade em relação ao tempo de implantação das composições de serviços.

Ano

2014

Creators

Leonardo Alexandre Ferreira Leite

Abdução clássica e abdução probabilística: a busca pela explicação de dados reais

A busca por explicações de fatos ou fenômenos é algo que sempre permeou o raciocínio humano. Desde a antiguidade, o ser humano costuma observar fatos e, de acordo com eles e o conhecimento presente, criar hipóteses que possam explicá-los. Um exemplo clássico é quando temos consulta médica e o médico, após verificar todos os sintomas, descobre qual é a doença e os meios de tratá-la. Essa construção de explicações, dado um conjunto de evidências que o indiquem, chamamos de \\textit{abdução}. A abdução tradicional para a lógica clássica estabelece que o dado meta não é derivado da base de conhecimento, ou seja, dada uma base de conhecimento $\\Gamma$ e um dado meta $A$ temos $\\Gamma ot \\vdash A$. Métodos clássicos de abdução buscam gerar um novo dado $H$ que, juntamente com uma base de conhecimento $\\Gamma$, possamos inferir $A$ ($\\Gamma \\cup H \\vdash A$). Alguns métodos tradicionais utilizam o tableaux (como em \\cite) para a geração da fórmula $H$. Aqui, além de lidarmos com a abdução baseada em corte, através do KE-tableaux, que não necessita assumir que o dado meta não seja derivado da base de conhecimento, lidaremos também com a lógica probabilística, redescoberta por Nilsson, em \\cite, onde temos a atribuição de probabilidades a fórmulas. Dizemos que uma instância em lógica probabilística é consistente se existe uma distribuição probabilística consistente sobre as valorações. Determinar essa distribuição probabilística é que o chamamos de problema PSAT. O objetivo de nosso trabalho é definir e estabelecer o que é uma abdução em Lógica Probabilística (abdução em PSAT) e, além disso, fornecer métodos de abdução para PSAT: dada uma instância PSAT $\\left\\langle \\Gamma, \\Psi ightangle$ na forma normal atômica \\cite e uma fórmula $A$ tal que existe uma distribuição probabi bylística $\\pi$ que satisfaz $\\left\\langle \\Gamma, \\Psi ightangle$ e $\\pi(A) = 0$, cada método é capaz de gerar uma fórmula $H$ tal que $\\left\\langle \\Gamma \\cup H , \\Psi ightangle \\!\\!|\\!\\!\\!\\approx A$ onde $\\pi(A) > 0$ para toda distribuição $\\pi$ que satisfaça $\\left\\langle \\Gamma \\cup H , \\Psi ightangle$. Iremos também demonstrar que alguns dos métodos apresentados são corretos e completos na geração de fórmulas $H$ que satisfaçam as condições de abdução.

Ano

2014

Creators

Alexandre Matos Arruda

Estratégias de resolução para o problema de job-shop flexível

Nesta tese apresentamos duas estratégias para resolver o problema de job-shop flexível com o objetivo de minimizar o makespan. A primeira estratégia utiliza um algoritmo branch and cut (B&C) e a segunda abordagens matheuristics. O algoritmo B&C utiliza novas classes de inequações válidas, originalmente formulada para o problema de job-shop e estendida para o problema em questão. Para que as inequações válidas sejam eficientes, o modelo proposto por Birgin et al, (2014) (A milp model for an extended version of the fexible job shop problem. Optimization Letters, Springer, v. 8, n. 4, 1417-1431), é reformulado (MILP-2). A segunda estratégia utiliza as matheuristcs local branching e diversification, refining and tight-refining. Os experimentos computacionais mostraram que a inclusão dos planos de corte melhoram a relaxação do modelo MILP-2 e a qualidade das soluções. O algoritmo B&C reduziu o gap e o número de nós explorados para uma grande quantidade de instâncias. As abordagens matheuristics tiveram um excelente desempenho. Do total de 59 instâncias analisadas, somente em 3 problemas a resolução do modelo MILP-1 obteve melhores resultados do que as abordagens matheuristcs

Ano

2016

Creators

Wellington Donizeti Previero

Iluminação baseada em séries temporais de imagens com aplicações em realidade mista

A estimação da iluminação é essencial para aplicações de realidade mista que se propõem a integrar elementos virtuais a cenas reais de maneira harmoniosa e sem a perda do realismo. Um dos métodos mais utilizados para fazer essa estimação é conhecido como iluminação baseada em imagens (Image Based Lighting - IBL), método que utiliza light probes para capturar a intensidade da iluminação incidente em uma cena. Porém, IBL estima a iluminação incidente apenas para um determinado instante e posição. Nesta dissertação, será avaliado um modelo de iluminação que utiliza séries temporais de imagens de light probes, obtidas de maneira esparsa em relação ao tempo, para renderizar cenas em instantes arbitrários. Novas cenas contendo objetos virtuais poderão ser renderizadas utilizando imagens de light probes artificiais, geradas a partir das amostras da iluminação originais. Diferentes funções de interpolação e aproximação são avaliadas para modelar o comportamento luminoso. As imagens finais produzidas pela metodologia também são verificadas por voluntários, de modo a determinar o impacto na qualidade de renderização em aplicações de realidade mista. Além da metodologia, foi desenvolvida uma ferramenta de software em forma de plugin para facilitar o uso de IBL temporalmente variável, permitindo assim a renderização realística de objetos virtuais para instantes arbitrários

Ano

2016

Creators

Caio de Freitas Valente

Comparação entre uma solução combinatória e um método de planos-de-corte para o problema do emparelhamento de peso máximo

Um emparelhamento em um grafo é um conjunto de arestas duas a duas não adjacentes. Dado um grafo G com pesos em suas arestas, o problema do emparelhamento de peso é máximo é encontrar um emparelhamento cuja soma dos pesos de suas arestas é máxima. Neste trabalho estudamos diferentes soluções para esse problema. Estudamos algoritmos combinatórios que resolvem o problema no caso em que G é bipartido e no caso geral. O algoritmo de Edmonds é um algoritmo polinomial cuja complexidade de tempo é O(n^4), onde n é o número de vértices do grafo G. Discutimos nesse trabalho nossa implementação desse algoritmo. Num trabalho de 1985, Grötschel e Holland propuseram o uso de ferramentas de programação linear para resolver o mesmo problema. O método chamado de planos-de-corte baseia-se em um resultado de Padberg e Rao de que o problema da separação associado ao poliedro dos emparelhamentos pode ser resolvido em tempo polinomial. Neste trabalho fizemos implementações dos dois métodos e os utilizamos para resolver diversos tipos de instâncias do problema. Nossa conclusão é que o método poliédrico, apesar de utilizar ferramentas genéricas, é bastante eficiente na prática.

Ano

2010

Creators

Ander Conselvan de Oliveira

TSS e TSB: novos descritores de forma baseados em tensor scale

Neste trabalho são apresentados dois novos descritores de forma para tarefas de recuperação de imagens por conteúdo (CBIR) e análise de formas, que são construídos sobre uma extensão do conceito de tensor scale baseada na Transformada de Distância Euclidiana (EDT). Primeiro, o algoritmo de tensor scale é utilizado para extrair informações da forma sobre suas estruturas locais (espessura, orientação e anisotropia) representadas pela maior elipse contida em uma região homogênea centrada em cada pixel da imagem. Nos novos descritores, o limite do intervalo das orientações das elipses do modelo de tensor scale é estendido de 180º para 360º, de forma a melhor discriminar a descrição das estruturas locais. Então, com base em diferentes abordagens de amostragem, visando resumir informações mais relevantes, os novos descritores são construídos. No primeiro descritor proposto, Tensor Scale Sector (TSS), a distribuição das orientações relativas das estruturas locais em setores circulares é utilizada para compor um vetor de características de tamanho fixo, para uma caracterização de formas baseada em região. No segundo descritor, o Tensor Scale Band (TSB), foram considerados histogramas das orientações relativas extraídos de bandas concêntricas, formando também um vetor de características de tamanho fixo, com uma função de distância de tempo linear. Resultados experimentais com diferentes bases de formas (MPEG-7 e MNIST) são apresentados para ilustrar e validar os métodos. TSS demonstra resultados comparáveis aos métodos estado da arte, que geralmente dependem de algoritmos custosos de otimização de correspondências. Já o TSB, com sua função de distância em tempo linear, se demonstra como uma solução adequada para grandes coleções de formas.

Ano

2017

Creators

Anderson Meirelles Freitas

Mobile technologies for music interaction

Mobile music applications are becoming commonplace around the world, and mobile devices are used as digital instruments everywhere. Controlling, performing, or composing music in real time with these devices encourages collaboration and interaction, as telecommunication improvements allow many people to cooperate through local networks or the Internet. In this context, the aim of this thesis is to evaluate mobile technologies that might be suitable for mobile musicians and their audiences while performing or composing. Specifically, the main goal is to explore technologies for collaborative mobile music and to obtain quantitative and qualitative data regarding these technologies and their settings, so that composers might take full advantage of the available options for mobile applications. This evaluation focuses on message exchange using Multicast, Unicast, and Cloud Services, using academic networks as the main pathway. With these services, messages are organized as packet streams, characterized by different sizes and time intervals. Evaluation also includes the development of several applications that make use of these technologies running on Android devices and web browsers. These applications were used in actual performances, serving as both evaluation tools and experimental music instruments. The results were analyzed in terms of round trip time and data loss under very different configuration scenarios, demonstrating that although some obvious impediments are unavoidable (e.g. significant delays in international settings), it is possible to choose the specific technology and achieve interesting results under most music application scenarios. I argue that although in theory Multicast appears to be the best technology to use by far, it is the most difficult to implement due to the burden of configuring every step of the network pathway. On the other hand, Cloud Services are certainly slower than direct connections, but are the most compatible and easiest technology to set up, and are definitely suitable for many collaborative music experiences. To conclude, there is a discussion of how mobile music practitioners can take advantage of these results for composition and performance by considering specific technological advantages or drawbacks that are inherent to each technology and setting.

Ano

2017

Creators

Antonio Deusany de Carvalho Junior

Linux-Smart: melhoria de desempenho para aplicações real-time soft em ambiente linux

Nos sistemas operacionais atuais não há um escalonador adequado para tratar aplicações de tempo real soft. Estas tarefas se caracterizam pela co-existência com outras aplicações de tempo real ou convencionais. No âmbito das políticas de escalonamento existentes, adotou-se nesta dissertação o SMART (Scheduling Multimedia Applications Real-Time) como solução para o problema mencionado. Esta política foi analisada, projetada e implementada como escalonador do sistema operacional LINUX. O objetivo da implementação realizada foi analisar o desempenho deste escalonador, bem como o desempenho de uma aplicação multimídia neste sistema em uma situação de sobrecarga. A aplicação de tempo real construída em TK/TCL foi intitulada 'Controle de aproximação de aeronaves em aeroportos'. Os testes foram realizados com a aplicação executando sozinha, a aplicação com mais 41 processos (20 processos que consumiam memória, 20 processos que gastavam CPU e 1 processográfico), a aplicação com 10 processos (todos gráficos) e a aplicação com um processo de compilação do processador de texto emacs versão 20.2. Isto no sistema LINUX com o SMART e com seus escalonadores padrão, realizando-se uma análise comparativa dos resultados obtidos e dos custos de escalonamento. Esta dissertação também apresenta uma pequena resenha dos escalonadores de tempo real, os quais foram classificados sob alguns paradigmas que os caracterizam. Adicionalmente, exibe-se os esforços atuais na comunidade LINUX, comparando-se os sistemas estudados com o LINUX modificado pela inclusão do escalonador SMART

Ano

1999

Creators

Jorge Euler Vieira

Algoritmos CGM para busca uni e bidimensional de padrões com e sem escala

Dados um texto e um padrão, o problema de busca de padrões em textos consiste em determinar as posições do texto onde existe uma ocorrência do padrão. Quando o texto e padrão são cadeias de caracteres, a busca é dita unidimensional. Quando ambossão matrizes, a busca é dita ser bidimensional. Existem variações deste problema onde se permite a busca do padrão, de alguma maneira, modificado. A modificação que permitiremos ao nosso padrão é que ele possa estar escalado. Descrevemosalgoritmos seqüencias lineares para estes problemas, uni ou bidimensionais, com e sem escala, presentes na literatura. Para o caso bidimensional sem escala é apresentado, ainda, um algoritmo de tempo sublinear sob determinadas condições nasmatrizes de entrada. Para estes problemas propomos novos algoritmos paralelos, utilizando o modelo CGM (Coarse Grained Multicomputers), cujos tempos de computação local são lineares na entrada (local), consomem memória também linear e utilizamapenas uma rodada de comunicação em que são trocados, no máximo, uma quantidade também linear de dados. As condições do modelo são, assim, respeitadas. Do nosso conhecimento, não há na literatura outros algoritmos paralelos em modelos degranularidade grossa para o problema de busca unidimensional com escala e para os problemas de busca bidimensional com ou sem escala. Estes algoritmos propostos foram implementados em linguagem C, utilizando interface PVM e foram executados namáquina Parsytec PowerXplorer. Os resultados experimentais obtidos mostraram que as implementações tiveram ganhos significativos ao utilizar-se mais de um processador

Ano

2000

Creators

Henrique Mongelli

Análise formal do aprendizado supervisionado por árvores de decisão

Nesta dissertação apresentamos duas vertentes da pesquisa em aprendizagem computacional, uma formal e outra empírica, destacando o modelo de análise 'Provavelmente Aproximadamente Correto' (PAC) e o algoritmo REAL de indução de árvores de decisãosobre atributos de domínio real. A seguir, levantamos a curva de aprendizagem do algoritmo REAL sobre uma base de dados padrão para testes de algoritmos de aprendizagem desta natureza e comparamos esta curva com as previsões teóricas dadas pelomodelo PAC e pelo modelo de Convergência Uniforme. Fica evidente a grande lacuna entre estes resultados e então propomos algumas possibilidades de aprofundamento deste análise

Ano

2000

Creators

Maurício Bellissimo Falleiros

Técnicas de orientação a objetos para projeto de sistemas adaptáveis

O paradigma de orientação a objetos se consolidou ao longo da década de 90 e tem demonstrado grande potencial em facilitar o tratamento de questões de evolução e mudanças em sistemas. Entretando, diversos problemas ainda são encontrados namanutenção de sistemas construidos sob a ótica dos conceitos e abstrações presentes neste paradigma. Recentemente novos enfoques para projeto orientado a objetos têm sido propostos com o intuito de favorecer requisitos de manutenciobilidade ereutilização/evolução de sistemas orientados a objetos. Este trabalho descreve um estudo comparativo do impacto das técnicas de programação orientada a aspectos e programação adaptativa com relações de contexto no projeto de sistemas comrequisitos de adaptação estática e dinâmica. O estudo foi conduzido através da reengenharia do projeto dos sistemas: JAWS - um servidor Web adaptativo - e SPIN - um sistema operacional extensível. Nosso objetivo foi analisar e avaliar aaplicabilidade das técnicas no projeto de sistemas mais flexíveis a mudanças futuras. O estudo demonstra que a aplicação dos preceitos de programação orientada a aspectos e programação adaptativa com relações de contexto pode trazer diversosbenefícios para o projeto de sistemas adaptáveis, entre eles: separação de interesses e facilidades de reutilização, na evolução estática, na configuração dinâmica e no entendimento progressivo da estrutura e comportamento do sistema. O trabalhopropõe ainda uma categorização para os tipos de adaptações encontrados em sistemas de software

Problemas cinéticos em geometria computacional

Problemas em geometria computacional permitem a modelagem de situações do mundo físico no computador, de forma que esses problemas possam ser resolvidos eficientemente. Estudamos algoritmos e estruturas de dados para a solução de problemas de geometria computacional no âmbito cinético, ou seja, onde admitimos que os objetos geométricos (pontos, retas, polígonos, etc.) possuam movimento associado. Com isso, nos problemas cinéticos o valor dos atributos geométricos, que são propriedades geométricas de um conjunto, se altera com o passar do tempo. Nesta dissertação abordamos, no cenário cinético, o problema de se manter o máximo de um conjunto, o par de pontos mais próximo, o fecho convexo e o diagrama de Voronoi. Esses são exemplos de atributos geométricos. Para que possamos manter atributos geométricos sobre um conjunto de objetos em movimento de forma eficiente, apresentamos um modelo proposto por Basch, Guibas e Hershberger, que introduz as estruturas de dados cinéticos. Elas são compostas de uma prova da corretude de atributo sendo 'animada' através do tempo. Apesar do movimento contínuo de cada objeto, o atributo somente será alterado pela ocorrência de eventos em momentos discretos no tempo. O modelo também introduz medidas para a análise do desempenho de tais estruturas sob quatro diferentes pontos de vista. Uma estrutura de dados cinética, segundo o modelo, deve ser eficiente, local, compacta e ter resposta rápida. Apresentamos também uma estratégia de implementação para as estruturas de dados cinéticas e exemplificamos sua utilização no problema do máximo

Ano

2000

Creators

Eduardo Garcia de Freitas

Detecção dinâmica de condições de disputa para programas 'multi threaded' em JAVA

Embora a programação concorrente tenha se popularizado, construir um programa concorrente correto é ainda uma tarefa muito difícil pois a falha exibida pelo programa pode ser dependente do escalonamento e apenas raramente se repetir. Nesta dissertação é descrita uma nova ferramenta, chamada Ladybug, capaz de detectar dinamicamente e existência de condições de disputa em programas Java. Ladybug rescreve classes Java já compiladas, inserindo invocações a métodos de monitoramento. O algoritmo utilizado pelos métodos de monitoramento (Ladyburg oferece dois), bem como sua implementação (privilegiando velocidade ou economia de melhoria), são escolhidos pelo usuário no momento da execução do programa escrito. Ladybug foi utilizadacom problemas cláasicos de concorrencia, programas de alunos de graduação da disciplina 'Programação Concorrente', um servidor e um cliente HTTP, e pareceu ser efetiva na descoberta de condições de disputa

Ano

2000

Creators

Clóvis Seragiotto Junior

Compartilhamento de conhecimento entre sistemas baseados em conhecimento: um estudo de caso

Neste trabalho, estaremos tratando fundamentalmente de teorias formais. Desta forma, cada sistema baseado em conhecimento considerado será tratado por meio da teoria formal que implementa. Conseqüentemente, consideraremos um sistema completamente definido pela caracterização da linguagem na qual ele é codificado, seus axiomas e regras de inferências válidas para seu funcionamento. Sob esta ótica, torna-se possível caracterizar o processo de compartilhamento de conhecimento como a interação dos formalismos implementados pelos sistemas participantes. Entretanto é impostante que os resultados teóricos obtidos sejam também reproduzidos nas implementações de sistemas que codifiquem, em liguagens executáveis por computadores, os formalismos analisados e os métodos propostos. Torna-se, então, útil a elaboração de programas que ilustrem os resultados obtidos. Claramente, o trabalho aqui proposto não tem como objetivo principal a construção de um programa. A importânciado desenvolvimento e implementação de um sistema reside na possibilidade de se avaliar um modelo teórico pelo comportamento de um programa. Enfim, todos os programas propostos e desenvolvidos np decorrer desta pesquisa têm como objetivo dar suporte a uma teoria e não compor um sistema comercial

Ano

2000

Creators

Roberto Cassio de Araujo

Segmentação de seqüências de imagens por morfologia matemática

Dentre as técnicas aplicadas em produção de vídeo digital estão as aplicadas para combinação de vídeos. Estas técnicas consistem na substituição de objetos e da colagem dos mesmos em uma outra seqüência. Um dos problemas apresentados por técnicas convencionais de combinação de vídeos é o número de cuidados a priori que devem ser tomados na produção do vídeo que será processado. Outro problema relacionado a combinação de vídeos ocorre quando se deseja editar um vídeo que não foi produzido com cuidados a priori. Neste caso, os objetos são recortados manualmente, o que pode se tornar inviável, devido a grande quantidade de quadros da seqüência. O objetivo deste trabalho é propor uma ferramenta computacional que faça combinação de vídeos, sem as desvantagens apresentadas acima. Os objetivos de interesse são segmentados através da aplicação do paradígma de Beucher-Meyer, uma técnica aplicada em segmentação de imagens que provê a detecção exata das bordas dos objetos apartir de um conjunto de marcadores, reduzindo o problema de segmentação ao problema de se encontrar marcadadores para objetos a serem segmentados. Estes marcadores são encontrados através da aplicação de operadores 'aperture', projetados portécnicas de aprendizado computacional. Após a introdução, seguem um capítulo sobre fundamentos da morfologia matemática e um capítulo sobre segmentação morfológica e filtros conexos, onde o paradígma de Beucher-Meyer será apresentado. Em seguida, são apresentados os operadores aperture, bem como o projeto destes operadores por aprendizado computacional. É apresentada, então, a metodologia proposta para segmentação de seqüências de imagens, bem como alguns resultados da aplicação desta metodologia em seqüências de imagens em níveis de cinza e em seqüências de imagens coloridas

Ano

2000

Creators

Franklin César Flores

Algoritmos paralelos para o paradigma de pertinência interior/exterior

O teste interior/exterior, que especifica se um ponto é parte de um objeto matematicamente bem definido, é um problema crucial em computação gráfica. Algoritmos baseados nesse teste podem ser executados para diversis pontos em paralelo, uma vez que não há dependência entre as computações para diferentes pontos. Este dissertação apresenta uma variedade de implementações paralelas para operações de preenchimento e traçado de linhas para combater a principal desvantagem desse tipo de algoritmo: sua lentidão em uma implementação seqüencial em software para edição e manipulação interativa

Ano

2000

Creators

Marcos Machado Ottani Assis

Uma infra-estrutura para o gerenciamento de aplicações CORBA tolerantes a falhas

Nesta dissertação é apresentado um serviço que fornece uma infra-estrutura robusta para o gerenciamento de aplicações CORBA tolerantes a falhas, denominado Juggler. Esse serviço disponibiliza interfaces que permitem o gerenciamento da configuração de aplicações CORBA tolerantes a falhas baseadas na redundância dos objetos que as compõem (grupos de objetos) e em mecanismos para a detecção e a recuperação de falhas desses objetos. Através do Juggler, é possível definir o estilo de replicação e as propriedades de tolerância a falhas associados a cada grupo de objetos individualmente. Essas propriedades definem, por exemplo, a localização e a quantidade mínima de réplicas que compõem um grupo, e permitem escolher a forma mais adequada para a recuperação de falhas ocorridas nos membros de um grupo. Além disso, o Juggler permite a modificação dinâmica das propriedades de tolerância a falhas e do estilo de replicação associados a grupos de objetos. O Juggler foi desenvolvido tomando-se como base o OGS, um serviço que disponibiliza os mecanismos básicos para a criação de grupos de objetos CORBA. O OGS foi escolhido como infra-estrutura para o desenvolvimento do Juggler por definir uma arquitetura para comunicação de grupo que utiliza apenas estruturas padronizadas pela especificação CORBA, possibilitando a portabilidade e a interoperabilidade desse serviço em diferentes CORBA ORBs

Ano

2001

Creators

Marcos Aurélio Mendes de Moura

Algoritmos paralelos para fecho convexo

O principal objetivo de nossa dissertação é de estudar os algoritmos paralelos e de implementar alguns algoritmos probabilísticos para o problema do fecho convexo. Nosso estudo começa com os algoritmos seqüenciais que podem ser usados na fase de cálculo local de cada processador. Em seguida apresentamos uma classificação dos modelos de computação paralela. Dois destes modelos são usados para estudar os algoritmos paralelos, um deles foi escolhido pelas características teóricas e outro pelas características práticas ligadas à realidade das máquinas atuais. Por fim, descrevemos e implementamos dois algoritmos probabilísticos incluindo o algoritmo Quickhull paralelo na máquina paralela Parsytec PowerXplorer

Ano

2001

Creators

Emmanuel Kayembe Ilunga

Um instrumento de avaliação da qualidade para software educacional de matemática

Os computadores estão sendo introduzidos de forma cada vez mais freqüente em todos os níveis da educação. Sua utilização nas aulas de matemática nas séries do ensino fundamental pode possuir várias finalidades, tais como: fonte de informação, auxílio no processo de construção de conhecimento, um meio para desenvolver autonomia pelo uso de softwares que possibilitem pensar, refletir e criar soluções. O cognitivo dos alunos, principalmente na medida em que possibilita o desenvolvimento de um trabalho que se adapta a distintos rítmos de aprendizagem e favorece a que o aluno aprenda com seus erros. Por outro lado, o bom uso que se possa fazer dessa ferramenta na sala de aula depende da escolha de softwares, em função dos objetivos que se pretende atingir e da concepção de conhecimento e de aprendizagem que orienta o processo. Este trabalho propõe um instrumento de avaliação de qualidade para softwares educacionais de matemática direcionados ao ensino fundamental. Este instrumento foi desenvolvido na forma de questionários, baseando-nos tanto em aspectos técnicos (funcionalidade, usabilidade, confiabilidade, eficiência, manutenibilidade, portabilidade) como em aspectos educacionais (pedagógicos, sócioculturais, cognitivos, lúdicos). Com isto, uma avaliação de produtos de software educacional pode ser realizada, a fim de que seja reconhecido o quão aplicável um produto pode ser, dentro dos objetivos traçados. No instrumento foram incluídos módulos de avaliação específicos ao tipo de software educacional a ser avaliado. Foram contempladas as modalidades: exercício e prática, tutorial, jogo pedagógico, simulação e sistema hipermídia. Tendo em vista a importância da característica 'usabilidade' no software educacional, um questionário dirigido aos usuários finais (alunos) foi desenvolvido. Também, aspectos referentes a cada um dos ciclos do ensino fundamental foram cobertos pelo instrumento de avaliação

Ano

2001

Creators

Ana Paula Gladcheff

Rastreamento eficiente de faces em um subespaço wavelet

O reconhecimento computacional de faces humanas a partir de seqüências de vídeo emerge nos dias atuais como um instigante e desafiador campo de pesquisa. Os resultados dos estudos realizados neste tema encontram diversas aplicações em sistemas de segurança, autenticação de usuários, interação homem-máquina e outras. Em geral, três etapas são discriminadas em um sistema de reconhecimento de faces a partir de vídeo: (1) detecção e rastreamento da face do usuário, (2) segmentação e normalização da face em cada quadro da seqüência, e (3) extração de características e classificação. O objetivo do presente trabalho consiste no estudo e desenvolvimento de algoritmos de visão computacional relativos à primeira etapa, com ênfase no problema de rastreamento de faces. A detecção da presença da face do usuáqrio, em uma sequencia de imagens, foi realizada utilizando-se um procedimento baseado em um modelo estatístico de cor da pele. Em contrapartida, para efetuar o rastreamento da face, realizamos experimentos com a técnica mais sofisticada, recentemente proposta na literatura, denominada Gabor wavelet networks (GWNs). O problema de localização e rastreamento de características faciais também foi tratado, visto que o módulo de reconhecimento, atualmente sendo implementado por outro aluno de mestrado [Campos, 2001], utiliza essas características para efetuar a classificação da face. Como principal contribuição deste estudo, salientamos a proposição de um método eficiente de rastreamento de faces, realizado em um subespaço wavelet de baixa dimensionalidade. Mais especificamente, esse método constitui um aperfeiçoamento, em termos de eficiência, da técnica de rastreamento baseada em GWNs. A comparação de ambas abordagens, bem como a avaliação de pperformance da técnica introduzida, considerando aspectos como precisão, robutez e eficiência, serão discutidas ao longo deste trabalho

Ano

2001

Creators

Rogério Schmidt Feris