RCAAP Repository

MÉTODOS DE RUNGE-KUTTA-ROSENBROCK PARA EQUAÇÕES DIFERENCIAIS ORDINÁRIAS

Nesta dissertação é estudada a classe dos métodos de Runge-Kutta e também do tipo Rosenbrock para a solução de Equações Diferenciais Ordinárias. Atenção especial é dedicada aos métodos de Rosenbrock-Wanner (ROW) métodos, os quais são extensões dos métodos clássicos de Rosenbrock. Um procedimento é apresentado para a obtenção dos métodos de Rosenbrock-Wanner de quarta ordem A-estáveis e um método com estas propriedades é mostrado. Isto é confirmado por resultados numéricos. Todo o estudo, aqui apresentado, baseia-se na teoria dos grafos ao estilo de J.C.Butcher.

Year

1990

Creators

Valdemir Garcia Ferreira

On the automatic design of decision-tree induction algorithms

Decision-tree induction is one of the most employed methods to extract knowledge from data. There are several distinct strategies for inducing decision trees from data, each one presenting advantages and disadvantages according to its corresponding inductive bias. These strategies have been continuously improved by researchers over the last 40 years. This thesis, following recent breakthroughs in the automatic design of machine learning algorithms, proposes to automatically generate decision-tree induction algorithms. Our proposed approach, namely HEAD-DT, is based on the evolutionary algorithms paradigm, which improves solutions based on metaphors of biological processes. HEAD-DT works over several manually-designed decision-tree components and combines the most suitable components for the task at hand. It can operate according to two different frameworks: i) evolving algorithms tailored to one single data set (specific framework); and ii) evolving algorithms from multiple data sets (general framework). The specific framework aims at generating one decision-tree algorithm per data set, so the resulting algorithm does not need to generalise beyond its target data set. The general framework has a more ambitious goal, which is to generate a single decision-tree algorithm capable of being effectively applied to several data sets. The specific framework is tested over 20 UCI data sets, and results show that HEAD-DTs specific algorithms outperform algorithms like CART and C4.5 with statistical significance. The general framework, in turn, is executed under two different scenarios: i) designing a domain-specific algorithm; and ii) designing a robust domain-free algorithm. The first scenario is tested over 35 microarray gene expression data sets, and results show that HEAD-DTs algorithms consistently outperform C4.5 and CART in different experimental configurations. The second scenario is tested over 67 UCI data sets, and HEAD-DTs algorithms were shown to be competitive with C4.5 and CART. Nevertheless, we show that HEAD-DT is prone to a special case of overfitting when it is executed under the second scenario of the general framework, and we point to possible alternatives for solving this problem. Finally, we perform an extensive experiment for evaluating the best single-objective fitness function for HEAD-DT, combining 5 classification performance measures with three aggregation schemes. We evaluate the 15 fitness functions in 67 UCI data sets, and the best of them are employed to generate algorithms tailored to balanced and imbalanced data. Results show that the automatically-designed algorithms outperform CART and C4.5 with statistical significance, indicating that HEAD-DT is also capable of generating custom algorithms for data with a particular kind of statistical profile

Year

2013

Creators

Rodrigo Coelho Barros

Cross-project defect prediction with meta-Learning

Defect prediction models assist tester practitioners on prioritizing the most defect-prone parts of the software. The approach called Cross-Project Defect Prediction (CPDP) refers to the use of known external projects to compose the training set. This approach is useful when the amount of historical defect data of a company to compose the training set is inappropriate or insufficient. Although the principle is attractive, the predictive performance is a limiting factor. In recent years, several methods were proposed aiming at improving the predictive performance of CPDP models. However, to the best of our knowledge, there is no evidence of which CPDP methods typically perform best. Moreover, there is no evidence on which CPDP methods perform better for a specific application domain. In fact, there is no machine learning algorithm suitable for all domains. The decision task of selecting an appropriate algorithm for a given application domain is investigated in the meta-learning literature. A meta-learning model is characterized by its capacity of learning from previous experiences and adapting its inductive bias dynamically according to the target domain. In this work, we investigate the feasibility of using meta-learning for the recommendation of CPDP methods. In this thesis, three main goals were pursued. First, we provide an experimental analysis to investigate the feasibility of using Feature Selection (FS) methods as an internal procedure to improve the performance of two specific CPDP methods. Second, we investigate which CPDP methods present typically best performances. We also investigate whether the typically best methods perform best for the same project datasets. The results reveal that the most suitable CPDP method for a project can vary according to the project characteristics, which leads to the third investigation of this work. We investigate the several particularities inherent to the CPDP context and propose a meta-learning solution able to learn from previous experiences and recommend a suitable CDPD method according to the characteristics of the project being predicted. We evaluate the learning capacity of the proposed solution and its performance in relation to the typically best CPDP methods.

Year

2017

Creators

Faimison Rodrigues Porto

Um problema de corte de peças integrado à programação da produção - uma abordagem por relaxação lagrangiana

O problema de planejamento da produção integrado ao problema de corte de estoque surge em várias indústrias de manufatura, tais como indústria de papel, móveis, aço entre outras, e consiste em um problema de otimização combinatória bastante complexo, devido ao fato de integrar dois problemas conhecidos na literatura de difícil resolução. As aplicações práticas deste problema vêm aumentando em muitas empresas que buscam tornar seus processos produtivos mais eficientes. Neste trabalho, estudamos o problema de otimização integrado que surge em pequenas indústrias de móveis, em que placas de MDF disponíveis em estoque devem ser cortadas em itens menores, de diversos tamanhos e quantidades para comporem os produtos demandados. O modelo matemático de otimização linear inteiro proposto permite que alguns produtos sejam antecipados e estocados. Essa antecipação da produção aumenta os custos de estoque, porém com o aumento da demanda de peças é possível gerar padrões de corte melhores e diminuir os custos com a perda de material. Consideramos no modelo dois tipos de variáveis de antecipação, uma de estoque convencional para atender uma demanda em carteira e outra para aproveitar a produção e atender uma demanda prevista, chamada variável oportunista. A função objetivo consiste em minimizar os custos dos processos de produção e de corte. Para resolver a relaxação linear deste problema, propomos um método lagrangiano e utilizamos a estratégia de horizonte rolante. Alguns testes computacionais são realizados e os resultados apresentados

Year

2008

Creators

Scheila Valechenski Biehl

Criação de um ambiente para o processamento de córpus de Português Histórico

A utilização de córpus tem crescido progressivamente em áreas como Lingüística e Processamento de Língua Natural. Como resultado, temos a compilação de novos e grandes córpus e a criação de sistemas processadores de córpus e de padrões para codificação e intercâmbio de textos eletrônicos. Entretanto, a metodologia para compilação de córpus históricos difere das metodologias usadas em córpus contemporâneos. Outro problema é o fato de a maior parte dos processadores de córpus proverem poucos recursos para o tratamento de córpus históricos, apesar de tais córpus serem numerosos. Da mesma forma, os sistemas para criação de dicionários não atendem satisfatoriamente necessidades de dicionários históricos. A motivação desta pesquisa é o projeto do Dicionário Histórico do Português do Brasil (DHPB) que tem como base a construção de um córpus de Português do Brasil dos séculos XVI a XVIII (incluindo alguns textos do começo do século XIX). Neste trabalho são apresentados os desafios encontrados para o processamento do córpus do projeto do projeto DHPB e os requisitos para redação de verbetes do dicionário histórico. Um ambiente computacional para processamento de córpus, criação de glossários e redação de verbetes foi desenvolvido para o projeto DHPB sendo possível adaptá-lo para ser aplicado a outros projetos de criação de dicionários históricos

Year

2008

Creators

Arnaldo Candido Junior

Teste de composição de web services: uma estratégia baseada em um modelo de teste de programas paralelos

WEb Services constituem uma tecnologia emergente utilizada para disponibilização de serviços na Web. Devido aos complexos processos de negócio existentes, esses serviços são combinados para que operem seguindo um fluxo de trabalho. Esse processo é chamado de composição de Web Services. Como no processo de desenvolvimento de um software tradicional, a atividade de teste é fundamental no processo de desenvolvimento da composição de Web Services. Neste trabalho é proposta uma estratégia de teste para a composição de Web Services, em que especificações de composições são transformadas para um modelo de teste de programas paralelos baseados em passagem de mensagens. É proposto o conceito de grupos de elementos requeridos para melhorar a cobertura dos critérios. Uma ferramenta de apoio à estratégia de teste foi desenvolvida. Alguns estudos experimentais para avaliar a aplicabilidade da estratégia proposta também são apresentados. Além disso, é proposto um método que utiliza redes de Petri para eliminar sincronizações não-executáveis no envio e recebimento de mensagens

Year

2008

Creators

André Takeshi Endo

Um modelo de notações customizáveis para representação gráfica de ontologias como suporte à edição por especialistas de domínio

Muitos estudos têm demonstrado a necessidade de melhorar as interfaces dos editores de ontologia. Esses estudos sugerem o aprimoramento da usabilidade dessas ferramentas e a necessidade de análises adicionais dos requisitos do usuário. Isso é especialmente verdadeiro quando os usuários são especialistas em domínios não relacionados à Ciência da Computação. Neste trabalho, uma nova abordagem é proposta para a interface de editores de ontologias direcionados a especialistas de domínio. O editor gráfico resultante, chamado Knowledge Graph Web Editor (KGWE), usa notações visuais personalizáveis pelo usuário para apresentar os elementos visuais de maneiras mais adequadas ao domínio do especialista. O objetivo foi criar interfaces mais compreensíveis para esses usuários, explorando técnicas encontradas na literatura de Visualização de Informações e Engenharia de Usabilidade. O editor salva as ontologias na Web Ontology Language (OWL), um padrão do W3C. Quatro experimentos de avaliação de Interface foram conduzidos com o editor, como parte de uma colaboração com pesquisadores em agricultura (sustentabilidade) da Embrapa e da Agência Paulista de Tecnologia dos Agronegócios. Eles mostraram que as interfaces do editor e as notações customizáveis foram consideradas eficientes e eficazes pelos especialistas de domínio. Esses especialistas também consideraram o editor mais utilizável do que suas ferramentas atuais.

Year

2021

Creators

Wander de Almeida Limeira

Extração de informação de artigos científicos: uma abordagem baseada em indução de regras de etiquetagem

Este trabalho faz parte do projeto de uma ferramenta denominada FIP (Ferramenta Inteligente de Apoio à Pesquisa) para recuperação, organização e mineração de grandes coleções de documentos. No contexto da ferramenta FIP, diversas técnicas de Recuperação de Informação, Mineração de Dados, Visualização de Informações e, em particular, técnicas de Extração de Informações, foco deste trabalho, são usadas. Sistemas de Extração de Informação atuam sobre um conjunto de dados não estruturados e objetivam localizar informações específicas em um documento ou coleção de documentos, extraí-las e estruturá-las com o intuito de facilitar o uso dessas informações. O objetivo específico desenvolvido nesta dissertação é induzir, de forma automática, um conjunto de regras para a extração de informações de artigos científicos. O sistema de extração proposto, inicialmente, analisa e extrai informações presentes no corpo dos artigos (título, autores, a filiação, resumo, palavras chaves) e, posteriormente, foca na extração das informações de suas referências bibliográficas. A proposta para extração automática das informações das referências é uma abordagem nova, baseada no mapeamento do problema de part-of-speech tagging ao problema de extração de informação. Como produto final do processo de extração, tem-se uma base de dados com as informações extraídas e estruturadas no formato XML, disponível à ferramenta FIP ou a qualquer outra aplicação. Os resultados obtidos foram avaliados em termos das métricas precisão, cobertura e F-measure, alcançando bons resultados comparados com sistemas similares

Year

2007

Creators

Alberto Cáceres Álvarez

Análise e implementação de suporte a SMP (multiprocessamento simétrico) para o sistema operacional eCos com aplicação em robótica móvel

Technological development has significantly reduced the distance between the performance of systems designed using reconfigurable computing and dedicated hardware. The main sources of performance are the high density level of the FPGAs and the resources? improvement offered by manufacturers, who make more its use more attractive in a variety of applications, emphatically in systems that demand a high degree of flexibility. In this context, the objective of this work consists on the exploration of the resources offered by FPGAs for the development of a multiprocessed platform with the purpose of parallel execution of tasks. In this way, the eCos operating system was modified, with the addition of new characteristics to support of the Symmetric Multiprocessing model, using three soft-Core Altera Nios II processors. On this operating system, all parallelism is directly related to execution of the threads. This platform was analyzed and validated through the execution of parallel algorithms, emphasizing aspects of performance and flexibility compared to other architectures. This work contributes for reaching better results in the execution of tasks in robotics area, which belongs to a domain that demand great competition of tasks, mainly in modules that involve interaction with the external environment

Year

2007

Creators

Maikon Adiles Fernandez Bueno

Manutenção de Software: problemas típicos e diretrizes para uma disciplina específica

O volume crescente de software em funcionamento em todo tipo de organização vem despertando atenção para uma fase do ciclo de vida de software, até então considerada sempre de maneira secundária, a manutenção de software. O fato de geralmente não ser viável substituir os produtos de software de uma organização por outros baseados em tecnologias mais recentes, torna a manutenção daqueles sistemas legados um desafio adicional para a busca de técnicas e métodos para a manutenção de software. Os problemas oriundos dessa atividade precisam ser melhor compreendidos, e é justamente na definição e estudo dessas dificuldades que este trabalho se dedica. O confronto da teoria de engenharia de software com observações práticas conduz para a melhor definição de quais são os problemas típicos de manutenção de software e do que se dispõe para abordá-los. Finalmente, com base no entendimento formado sobre os problemas, neste trabalho são apresentdas diretrizes para guiar a elaboração de uma disciplina específica de manutenção de software para cursos de graduação na área de computação

Year

2007

Creators

Mateus Maida Paduelli

Projeto de um sistema para monitoramento de hardware/software on-chip baseado em computação reconfigurável

A tendência de integração de diversos componentes em um único chip tem proporcionado um aumento da complexidade dos sistemas computacionais. Tanto as indústrias quanto o meio acadêmico estão em busca de técnicas que possibilitem diminuir o tempo e o esforço gastos com a verificação no processo de desenvolvimento de hardware, a fim de garantir qualidade, robustez e confiabilidade a esses dispositivos. De forma a contribuir para várias aplicações envolvendo a verificação de sistemas, tais como busca por erros de projeto, avaliação de desempenho, otimização de algoritmos e extração de dados do sistema, o presente trabalho propõe um sistema de monitoramento baseado em computação reconfigurável, capaz de observar de forma não intrusiva o comportamento de um SoC (System-on-Chip) em tempo de execução. Tal sistema é composto por um módulo de monitoramento responsável por captar informações de execução de software em um processador embarcado e uma ferramenta de análise, chamada ACAD, que interpreta esses dados. Por meio da realização de experimentos, verificou-se que o sistema desenvolvido foi capaz de fornecer dados fiéis sobre a quantidade de acessos a memória ou a outros periféricos, tempos de execução de porções (ou a totalidade) do código e número de vezes que cada instrução foi executada. Esses resultados permitem traçar, de maneira precisa, o comportamento de um software executado no processador softcore Nios II, contribuindo assim para facilitar o processo de verificação em sistemas baseados em computação reconfigurável

Year

2007

Creators

Guilherme Stella Ravagnani

Uma contribuição à modelagem e geração automática de conteúdos educacionais

Ambientes e sistemas de apoio ao ensino e aprendizado estão sendo adotados como mecanismos facilitadores no processo de ensino e aprendizado. No entanto, uma limitação comum à maioria desses ambientes está relacionada ao fato de concentrarem-se apenas na criação da estrutura, armazenamento e controle de acesso ao material didático, sem oferecer qualquer tipo de suporte à atividade de modelagem do conteúdo. Nesse contexto, em trabalhos anteriores foi proposta a abordagem AIM-CID - uma abordagem integrada para modelagem de conteúdos educacionais. Dando continuidade às pesquisas já realizadas, este trabalho aborda o estudo de mecanismos de apoio à modelagem de conteúdos educacionais, propondo extensões às etapas de modelagem conceitual e instrucional da abordagem AIM-CID. A ideia é incorporar à abordagem aspectos relacionados ao reuso e compartilhamento de conteúdos educacionais. Além disso, também foi considerado no escopo deste trabalho o projeto e o desenvolvimento da AIM-Tool - uma ferramenta Web, de apoio à modelagem e geração automática de conteúdos educacionais, com ênfase na construção distribuída dos modelos estendidos da abordagem AIM-CID. A ferramenta fornece mecanismos para a geração automática dos conteúdos modelados em diferentes formatos, além de tratar aspectos relacionados ao compartilhamento do material gerado, por meio da adoção do padrão LOM

Year

2010

Creators

Vanessa Araujo Borges

Classificação semi-supervisionada baseada em desacordo por similaridade

O aprendizado semi-supervisionado é um paradigma do aprendizado de máquina no qual a hipótese é induzida aproveitando tanto os dados rotulados quantos os dados não rotulados. Este paradigma é particularmente útil quando a quantidade de exemplos rotulados é muito pequena e a rotulação manual dos exemplos é uma tarefa muito custosa. Nesse contexto, foi proposto o algoritmo Cotraining, que é um algoritmo muito utilizado no cenário semi-supervisionado, especialmente quando existe mais de uma visão dos dados. Esta característica do algoritmo Cotraining faz com que a sua aplicabilidade seja restrita a domínios multi-visão, o que diminui muito o potencial do algoritmo para resolver problemas reais. Nesta dissertação, é proposto o algoritmo Co2KNN, que é uma versão mono-visão do algoritmo Cotraining na qual, ao invés de combinar duas visões dos dados, combina duas estratégias diferentes de induzir classificadores utilizando a mesma visão dos dados. Tais estratégias são chamados de k-vizinhos mais próximos (KNN) Local e Global. No KNN Global, a vizinhança utilizada para predizer o rótulo de um exemplo não rotulado é conformada por aqueles exemplos que contém o novo exemplo entre os seus k vizinhos mais próximos. Entretanto, o KNN Local considera a estratégia tradicional do KNN para recuperar a vizinhança de um novo exemplo. A teoria do Aprendizado Semi-supervisionado Baseado em Desacordo foi utilizada para definir a base teórica do algoritmo Co2KNN, pois argumenta que para o sucesso do algoritmo Cotraining, é suficiente que os classificadores mantenham um grau de desacordo que permita o processo de aprendizado conjunto. Para avaliar o desempenho do Co2KNN, foram executados diversos experimentos que sugerem que o algoritmo Co2KNN tem melhor performance que diferentes algoritmos do estado da arte, especificamente, em domínios mono-visão. Adicionalmente, foi proposto um algoritmo otimizado para diminuir a complexidade computacional do KNN Global, permitindo o uso do Co2KNN em problemas reais de classificação

Year

2010

Creators

Victor Antonio Laguna Gutiérrez

Projeto de um broker de gerenciamento adaptativo de recursos em computação em nuvem baseado em técnicas de controle realimentado

Computação em nuvem refere-se a um modelo de disponibilização de recursos computacionais no qual a infraestrutura de software e hardware é ofertada como um serviço, e vem se estabelecendo como um paradigma de sucesso graças a versatilidade e ao custo-efetividade envolvidos nesse modelo de negócio, possibilitando o compartilhamento de um conjunto de recursos físicos entre diferentes usuários e aplicações. Com o advento da computação em nuvem e a possibilidade de elasticidade dos recursos computacionais virtualizados, a alocação dinâmica de recursos vem ganhando destaque, e com ela as questões referentes ao estabelecimento de contratos e de de qualidade de serviço. Historicamente, as pesquisas em QoS concentram-se na solução de problemas que envolvem duas entidades: usuários e servidores. Entretanto, em ambientes de nuvem, uma terceira entidade passa a fazer parte dessa interação, o consumidor de serviços em nuvem, que usa a infraestrutura para disponibilizar algum tipo de serviço aos usuários finais e que tem recebido pouca atenção das pesquisa até o momento, principalmente no que tange ao desenvolvimento de mecanismos automáticos para a alocação dinâmica de recursos sob variação de demanda. Este trabalho consiste na proposta de uma arquitetura de gerenciamento adaptativo de recursos sob a perspectiva do modelo de negócio envolvendo três entidades, focada na eficiência do consumidor. O trabalho inspira-se em técnicas de controle realimentado para encontrar soluções adaptativas aos problemas de alocação dinâmica de recursos, resultando em uma arquitetura de broker de consumidor, um respectivo protótipo e um método de projeto de controle para sistemas computacionais dessa natureza

Year

2013

Creators

Pedro Northon Nobile

ANALISE COMPARATIVA DE METODOS NUMERICOS DE EQUACOES ALGEBRICO-DIFERENCIAIS

Este trabalho aborda, apenas, sistemas de Equações Algébrico-Diferenciais(EAD) de índice zero ou um. Estudaremos as propriedades de ordem e convergência do método diferenças para trás (BDF) e principalmente do método de Runge-Kutta Implícito (RKI), Também, descreveremos os algoritmos provenientes destes métodos, quando aplicados em sistemas de EAD de índice zero ou um. Por último, faremos uma comparação numérica entre os método BDF e método de Runge-Kutta Implícito usando dois códigos representativos, sendo eles DAS SL e RADAUS, respectivamente.

Year

1994

Creators

Neyva Maria Lopes Romeiro

UM GERADOR DE APLICAÇÃO PARA UM AMBIENTE DE SIMULAÇÃO AUTOMÁTICO

Este trabalho discute tópicos fundamentais relacionados com a conceituação básica sobre simulação de sistemas discretos e geradores de aplicação. O desenvolvimento de programas de simulação pode consistir em uma tarefa árdua, exigindo conhecimentos não apenas sobre o problema em estudo, como também de técnicas de modelagem, análise e implementação. A utilização de ferramentas capazes de automatizar parte significativa do trabalho envolvido no desenvolvimento de \"software\" apresenta inúmeras vantagens, principalmente em relação aos aspectos de qualidade e produtividade. Com base nos estudos realizados foi desenvolvido um gerador de aplicação para simulação de sistemas discretos, cujo principal atrativo é possibilitar ao usuário o desenvolvimento de programas de simulação sem se preocupar com detalhes da implementação do mesmo.

Year

1994

Creators

Roberta Spolon

Um framework para simulação do fluxo de peças em sistemas flexíveis de fabricação

Um processo de modelagem e o modelo de classes de um framework para a simulação do fluxo de peças em sistemas flexíveis de fabricação são apresentados. O método de simulação implementado no framework é baseado na modelagem geométrica e funcional dos dispositivos que entram em contato direto com a peça durante o seu fluxo pelo sistema produtivo. Um índice que qualifica a utilização de cada tipo de dispositivo foi definido, o qual é utilizado para a escolha automática da melhor forma de realização do fluxo da peça no sistema de fabricação. No processo de desenvolvimento do framework propôs-se uma associação de padrões para efetuar a persistência em um banco de dados relacional das informações relativas aos pontos variáveis do framework. Essa associação de padrões é reutilizada em outras partes do framework e poderia ser útil em outros domínios, como um novo padrão de projeto para persistência de dados. O framework proposto é instanciado para simular um sistema produtivo real e sua utilização resulta no planejamento macroscópico das operações que compõem a folha de processo da peça.

Year

2003

Creators

Ernesto Massaroppi Junior

iVIEW: infra-estrutura de visualização de informação evolucionária na web

O crescimento acelerado da Internet como meio de se obter informações dentro dos mais diversos domínios de aplicações torna necessária a incorporação de técnicas visuais que auxiliem o usuário a interagir com esse vasto universo de informações de forma eficaz e intuitiva. A Visualização de Informação é uma área de pesquisa que estuda o uso de representações visuais e interativas de informações com o objetivo de diminuir a sobrecarga cognitiva dos usuários ao interpretá-las. Os objetivos deste trabalho são investigar e implementar mecanismos que permitem ao usuário utilizar a Web para visualizar informações evolucionárias - informações que crescem ao longo do tempo e se relacionam. Diversas técnicas de visualização existentes foram pesquisadas. Foi investigada a utilização de padrões XML (Extensible Markup Language) para geração de representações gráficas através de documentos SVG (Scalable Vector Graphics). Como resultado, foi definida a infra-estratura iVIEW - infra-estrutura de Visualização de Informação Evolucionária na Web - que provê um mecanismo para visualização de informação evolucionária através do processamento de documentos estruturados.

Year

2003

Creators

Adriane Kaori Oshiro

mCards: Ferramenta de apoio a construção de aplicativos para assistentes pessoais digitais

Tecnologias recentes, como a de assistentes pessoais digitais (PDAs), trazem uma série de questões no que tange novos recursos, limitações, possibilidades de utilização e, fatores técnicos relacionados o que frequentemente demanda amplo tempo de aprendizado. Além de lidar com essas questões, pessoas ligadas à produção de sistemas de software para PDAs precisam também conviver com a diversidade de possibilidades de desenvolvimento e, principalmente com a velocidade com que a tecnologia se modifica. Em tal conjuntura, pesquisas que auxiliem no processo de desenvolvimento, equacionando tempo gasto e resultados efetivos constituem contribuições importantes. Neste trabalho, propõe-se a ferramenta mCards, com mecanismos visuais de interação, que permite a criação de aplicações, baseadas em cards, para assistentes pessoais digitais.

Year

2005

Creators

Danilo Rogério Boccardo

Contribuições para a extensão de informação capturada: Metadados e Web Services

A computação ubíqua é uma área de pesquisa que envolve a integração de tecnologia de forma transparente às atividades diárias das pessoas. Dois dos principais temas da computação ubíqua são aplicações de captura e acesso e a computação ciente de contexto. O primeiro tema investiga o apoio à construção de aplicações que capturam informações relativas a uma experiência ao vivo com o objetivo de possibilitar posterior acesso à informação capturada, muitas vezes na forma de documentos Web. O segundo tema visa a facilitar a interação do usuário com o computador: ela descreve uma situação em que o dispositivo computacional está ciente das condições do usuário e adapta seu procedimento baseado em informações chamadas de informações de contexto. Uma lacuna identificada em relação a aplicações de captura e acesso é que, muitas vezes, tais aplicações são desenvolvidas sem atenção para um possível reuso, por parte de outras aplicações, do material capturado. Nesse sentido, um problema tratado nesta dissertação é ausência de propostas de reuso de informações armazenadas por aplicações de captura e acesso. Em outras palavras, há a demanda pela incorporação de metadados à informação capturada, os quais viabilizam o intercâmbio e reuso das informações. Nesse cenário, o trabalho tem por objetivo propor um mecanismo que permita incorporar metadados à informação capturada de modo que: quaisquer metadados manipulados sejam padronizados; metadados possam ser associados de modo automático a permitir intercâmbio; metadados possam ser adicionados sob demanda do usuário. Como resultado das investigações, foram realizadas implementações que, partindo de informações capturadas pelo sistema de captura e acesso iClass, permitem a criação de objetos de aprendizagem de acordo com o padrão de metadados para objetos de aprendizagem SCORM tanto de modo automático como manual, fazendo uso de informações de contexto armazenadas no Web Service Context Kernel. Tanto o iClass como o Context Kernel são ambientes desenvolvidos no Laboratório Intermídia, no qual este trabalho foi realizado.

Year

2005

Creators

Renata Paciência Godoy