Repositório RCAAP

Serviços Web Semânticos: da modelagem à composição

A automação de tarefas como descoberta, composição e invocação de Serviços Web é um requisito importante para o sucesso da Web Semântica. Nos casos de insucesso na busca por um serviço, por não existir disponível um serviço completo que atenda plenamente a requisição do usuário, uma possibilidade de contorno é compor o serviço procurado a partir de elementos básicos que atendam parcialmente a requisição inicial e que se completem. A composição de Serviços Web pode ser realizada de forma manual ou de forma automática. Na composição manual, o desenvolvedor de Serviços Web pode tirar proveito da sua expertise sobre os serviços envolvidos na composição e sobre o resultado que se deseja alcançar. Esta tese aborda problemas e apresenta contribuições relacionadas ao processo de composição automática de Serviços Web. A composição automática de Serviços Web requer que os serviços sejam descritos e publicados de forma a modelar o conhecimento (semântica explícita) que o desenvolvedor utiliza para realizar a composição manual. A descoberta automática baseada nas descrições semânticas do serviço é também um passo crucial na direção da composição automática, pois é um estágio anterior necessário para a seleção dos serviços candidatos à composição. Trabalhos da área de pesquisa em Serviços Web Semânticos exploram a utilização dos padrões da Web Semântica para enriquecer, com semântica explícita, a descrição dos Serviços Web. O problema da composição automática de Serviços Web é tratado neste trabalho por meio de três linhas de investigação: modelagem dos Serviços Web Semânticos; descoberta automática de Serviços Web Semânticos; e composição automática de Serviços Web Semânticos. As contribuições desta tese incluem: a plataforma RALOWS para modelagem de aplicações Web como Serviços Web Semânticos, tendo como estudo de caso aplicações para realização de experimentos remotos; um algoritmo para descoberta automática de Serviços Web Semânticos; uma proposta baseada em grafos e caminhos de custo mínimo para prover composição automática de Serviços Web Semânticos; uma infra-estrutura e ferramentas de apoio à descrição, publicação, descoberta e composição de Serviços Web Semânticos

Ano

2022-12-06T14:47:11Z

Creators

Cássio Vinícius Serafim Prazeres

Segmentação automática de vídeo em cenas baseada em coerência entre tomadas

A popularização de aplicativos e dispositivos capazes de produzir, exibir e editar conteúdos multimídia fez surgir a necessidade de se adaptar, modificar e customizar diferentes tipos de mídia a diferentes necessidades do usuário. Nesse contexto, a área de Personalização e Adaptação de Conteúdo busca desenvolver soluções que atendam a tais necessidades. Sistemas de personalização, em geral, necessitam conhecer os dados presentes na mídia, surgindo, assim, a necessidade de uma indexação do conteúdo presente na mídia. No caso de vídeo digital, os esforços para a indexação automática utilizam como passo inicial a segmentação de vídeos em unidades de informação menores, como tomadas e cenas. A segmentação em cenas, em especial, é um desafio para pesquisadores graças a enorme variedade entre os vídeos e a própria ausência de um consenso na definição de cena. Diversas técnicas diferentes para a segmentação em cenas são reportadas na literatura. Uma técnica, em particular, destaca-se pelo baixo custo computacional: a técnica baseada em coerências visual. Utilizando-se operações de histogramas, a técnica objetiva-se a comparar tomadas adjacentes em busca de similaridades que poderiam indicar a presença de uma cena. Para melhorar os resultados obtidos, autores de trabalhos com tal enfoque utilizam-se de outras características, capazes de medir a \"quantidade de movimento\" das cenas, como os vetores de movimento. Assim, este trabalho apresenta uma técnica de segmentação de vídeo digital em tomadas e em cenas através da coerência visual e do fluxo óptico. Apresenta-se, ainda, uma série de avaliações de eficácia e de desempenho da técnica ao segmentar em tomadas e em cenas uma base de vídeo do domínio filmes

Ano

2022-12-06T14:47:11Z

Creators

Tiago Henrique Trojahn

Uma abordagem com modelo de aprendizado de máquina híbrido para predição de movimentos de preço médio de ativos pelo livro de ofertas

Neste trabalho é apresentada a aplicação de um modelo híbrido para prever os movimentos do preço-médio de instrumentos da Bolsa de Valores do Brasil (B3) utilizando dados do livro de ofertas e as mensagens relacionadas. Uma Rede Neural Convolucional (CNN) é utilizada para extrair características espaciais do livro de ofertas e um algoritmo baseado em árvores de decisão é utilizado para combinar as características da CNN com os dados do arquivo de mensagens. Diferente da maioria das outras bolsas de valores pelo mundo, o arquivo de mensagens da B3 inclui a qual corretora uma ordem pertence e neste trabalho também é apresentada uma análise de sua importância.Os resultados demonstram que a solução pode ser melhorada em 8% em termos de precisão (5% devido ao classificador baseado em árvore de decisão e mais 3% combinando com as mensagens) em comparação com uma CNN tradicional, onde as etapas de extração e classificação são ambas resolvidas pelo próprio modelo. Além disso, a utilização deste classificador permite a transferência de aprendizado de forma muito mais rápida do que o treinamento de uma CNN tradicional (cerca de 40 segundos).

Ano

2022-12-06T14:47:11Z

Creators

Guilherme Augusto Bileki

Sistema de visão artificial para identificação do estado nutricional de plantas

A avaliação do estado nutricional das plantas de milho usualmente é feita através de análises químicas ou pela diagnose visual das folhas da planta, esta última, sujeita a erros de interpretação já que a ausência de algum nutriente na planta gera um padrão de mudança específico na superfície da folha que depende do nível de ausência do nutriente. As dificuldades que apresentam neste processo e sua importância na agricultura, criam a necessidade de pesquisar sistemas automáticos para a avaliação do estado nutricional de plantas. Desta forma, este mestrado teve como objetivo principal o desenvolvimento de um sistema de visão artificial para verificar a possibilidade de identificação de níveis dos macronutrientes Cálcio, Enxofre, Magnésio, Nitrogênio e Potássio em plantas de milho através da análise da superfície das folhas usando métodos de visão computacional. Este projeto realiza uma revisão bibliográfica do estado da arte dos métodos de extração de características de cor, textura em escala de cinza e textura colorida utilizadas em processamento de imagens. A alta similaridade entre os sintomas produzidos pelas deficiências e a pouca similaridade entre amostras de uma mesma deficiência motivou o desenvolvimento de novos métodos de extração de características que pudessem fornecer dados necessários para uma correta separação entre as classes. Os resultados obtidos demonstraram que o sistema desenvolvido possibilita a predição de deficiências nutricionais em estágios iniciais do crescimento da planta usando unicamente a textura da superfície da folha como fonte de informação

Ano

2022-12-06T14:47:11Z

Creators

Alvaro Manuel Gómez Zúñiga

Model based testing of service oriented applications

SERVICE oriented architecture (SOA) is an architectural style to structure software systems, fostering loose coupling and dynamic integration among the applications. The use of SOA and Web services to develop complex and large business processes demands more formal and systematic testing. In addition, characteristics of this type of software limit the straightforward application of traditional testing techniques. Model-based testing (MBT) is a promising approach to deal with these problems. This dissertation investigates how two modeling techniques, namely Finite State Machine (FSM) and Event Sequence Graph (ESG), can be used to support MBT of service-oriented applications. Both techniques model different aspects and can be applied in a complementary way. Initially, we define an MBT process for service-oriented applications that employs FSMs. Based on previous experience, we propose a model-based approach to test composite services using ESGs. This approach is holistic, once test suites are generated to cover both desired situations (positive testing) and unexpected behaviors (negative testing). Three experimental studies evaluate the proposed approach: (i) a case study, (ii) a cost analysis, and (iii) a study in industry. Testing tools are also presented to support its practical use

Ano

2022-12-06T14:47:11Z

Creators

André Takeshi Endo

SERVIDOR DE ARQUIVOS PARA SISTEMAS DISTRIBUIDOS

Este trabalho apresenta o projeto e a implementação de um sistema servidor de arquivos para sistema computacional distribuído baseado em rede local, executando o sis tema operacional MINIX. A principal função de um servidor de arquivos em um sistema computacional dis tribuído é oferecer aos usuários um serviço de armazenamento de dados. Um servidor de arquivos normalmente é composto de uma interface com o usuário (rotinas utilizadas pelo cliente para ter acesso a seus dados) e do sistema. servidor (responsável pelo gerenciamento dos dados dos clientes). No desenvolvimento deste sistema, foi necessária a adaptação do driver de rede adotado pelo sistema operacional MINIX, a fim de possibilitar a comunicação através da rede entre clientes e o servidor de arquivos remoto proposto.

Ano

2022-12-06T14:47:11Z

Creators

Ana Paula Gervasio Silveira Rossato

Algoritmo evolutivo de muitos objetivos para predição ab initio de estrutura de proteínas

Este trabalho foca o desenvolvimento de algoritmos de otimização para o problema de PSP puramente ab initio. Algoritmos que melhor exploram o espaço de potencial de soluções podem, em geral, encontrar melhores soluções. Esses algoritmos podem beneficiar ambas abordagens de PSP, tanto o modelo ab initio quanto os baseados em conhecimento a priori. Pesquisadores tem mostrado que Algoritmos Evolutivos Multiobjetivo podem contribuir significativamente no contexto do problema de PSP puramente ab initio. Neste contexto, esta pesquisa investiga o Algoritmo Evolutivo Multiobjetivo baseado em Tabelas aplicado ao PSP puramente ab initio, que apresenta interessantes resultados para proteínas relativamente simples. Por exemplo, um desafio para o PSP puramente ab initio é a predição de estruturas com folhas-. Para trabalhar com tais proteínas, foi desenvolvido procedimentos computacionalmente eficientes para estimar energias de ligação de hidrogênio e solvatação. Em geral, estas não são consideradas no PSP por abordagens que combinam métodos de otimização e conhecimento a priori. Considerando somente van der Waals e eletrostática, as duas energias de interação que mais contribuem para a definição da estrutura de uma proteína, com as energias de ligação de hidrogênio e solvatação, o problema de PSP tem quatro objetivos. Problemas combinatórios (tais como o PSP), com mais de três objetivos, geralmente requerem métodos específicos capazes de lidar com muitos critérios. Para resolver essa limitação, este trabalho propõe um novo método para a otimização dos muitos objetivos, chamado Algoritmo Evolutivo Multiobjetivo com Muitas Tabelas (AEMMT). Esse método executa uma amostragem mais adequada do espaço de funções objetivo e, portanto, pode mapear melhor as regiões promissoras deste espaço. A capacidade de lidar com muitos objetivos capacita o AEMMT a utilizar melhor a informação oriunda das energias de solvatação e de ligação de hidrogênio, e então predizer estruturas com folhas- e algumas proteínas relativamente mais complexas. Do ponto de vista computacional, o AEMMT é um novo método que lida com muitos objetivos (mais de dez) encontrando soluções relevantes

Ano

2022-12-06T14:47:11Z

Creators

Christiane Regina Soares Brasil

Modeling spreading processes in complex networks

Mathematical modeling of spreading processes have been largely studied in the literature, and its presented a boom in the past few years. This is a fundamental task on the understanding and prediction of real spreading processes on top of a population and are subject to many structural and dynamical constraints. Aiming at a better understanding of this processes, we focused in two task: the modeling and the analysis of both dynamical and structural aspects of these processes. Initially, we proposed a new and general model that unifies epidemic and rumor spreading. Besides, regarding the analysis of these processes, we extended the classical formalism to multilayer networks, in which the theory was lacking. Interestingly, this study opened up new challenges concerning the understanding of multilayer networks. More specifically, regarding their spectral properties. In this thesis, we analyzed such processes on top of single and multilayer networks. Thus, throughout our analysis, we followed three complementary approaches: (i) analytical, (ii) numerical and (iii) simulations, mainly Monte Carlo simulations. Our main results are: (i) a new unifying model, enabling us to model and understand spreading processes on large systems, (ii) characterization of new phenomena on multilayer networks, such as layer-wise localization and the barrier effect and (iii) an spectral analysis of multilayer systems, suggesting a universal parameter and proposing a new analytical tool for its analysis. Our contributions enable further research on modeling of spreading processes, also emphasizing the importance of considering the complete multilayer structure instead of any coarse-graining. Additionally, it can be directly applied on the prediction and modeling real processes. Thus, aside from the theoretical interest and its mathematical implications, it also presents important social impact.

Ano

2022-12-06T14:47:11Z

Creators

Guilherme Ferraz de Arruda

"O framework de integração do sistema DISCOVER"

Talvez uma das maiores capacidades do ser humano seja a sua habilidade de aprender a partir de observações e transmitir o que aprendeu para outros humanos. Durante séculos, a humanidade vem tentado compreender o mundo em que vive e, a partir desse novo conhecimento adquirido, melhorar o mundo em que vive. O desenvolvimento da tecnologia colocou a descoberta de conhecimento em um momento ímpar na história da humanidade. Com os progressos da Ciência da Computação, e, em particular, da Inteligência Artificial - IA - e Aprendizado de Máquina -AM, hoje em dia é possível, a partir de métodos de inferência indutiva e utilizando um conjunto de exemplos, descobrir algum tipo de conhecimento implícito nesses exemplos. Entretanto, por ser uma área de pesquisa relativamente nova, e por envolver um processo tanto iterativo quanto interativo, atualmente existem poucas ferramentas que suportam eficientemente a descoberta de conhecimento a partir dos dados. Essa falta de ferramentas se agrava ainda mais no que se refere ao seu uso por pesquisadores em Aprendizado de Máquina e Aquisição de Conhecimento. Esses fatores, além do fato que algumas pesquisas em nosso Laboratório de Inteligência Computacional - LABIC - têm alguns componentes em comum, motivaram a elaboração do projeto Discover, que consiste em uma estratégia de trabalho em conjunto, envolvendo um conjunto de ferramentas que se integram e interajam, e que supram as necessidades de pesquisa dos integrantes do nosso laboratório. O Discover também pode ser utilizado como um campo de prova para desenvolver novas ferramentas e testar novas idéias. Como o Discover tem como principal finalidade o seu uso e extensão por pesquisadores, uma questão principal é que a arquitetura do projeto seja flexível o suficiente para permitir que novas pesquisas sejam englobadas e, simultaneamente, deve impor determinados padrões que permitam a integração eficiente de seus componentes. Neste trabalho, é proposto um framework de integração de componentes que tem como principal objetivo possibilitar a criação de um sistema computacional a partir das ferramentas desenvolvidas para serem utilizadas no projeto Discover. Esse framework compreende um mecanismo de adaptação de interface que cria uma camada (interface horizontal) sobre essas ferramentas, um poderoso mecanismo de metadados, que é utilizado para descrever tanto os componentes que implementam as funcionalidades do sistema quanto as configurações de experimentos criadas pelos usuário, que serão executadas pelo framework, e um ambiente de execução para essas configurações de experimentos.

Ano

2022-12-06T14:47:11Z

Creators

Ronaldo Cristiano Prati

Uso de aspectos para apoiar a evolução não funcional de frameworks: aplicação ao framework GREN

Esta dissertação apresenta a evolução do framework orientado a objetos GREN, realizada usando a abordagem de Programação Orientada a Aspectos. Nessa evolução foram considerados apenas requisitos não-funcionais que não haviam sido implementados nas versões originais do GREN, mais especificamente os requisitos de segurança (autenticação, registro de acesso e controle de acesso). A implementação desses requisitos deu origem a um Subsistema de Segurança orientado a aspectos, que permite a autenticação, registro de acesso e controle de acesso de usuários sobre as aplicações instanciadas a partir do GREN. Também é apresentada a evolução da ferramenta para instanciação automática do GREN, o GREN-Wizard, para torná-la compatível com a nova versão do GREN. Para a evolução do GREN foi seguido um processo de evolução de frameworks proposto na literatura que sofreu influência deste trabalho em seu refinamento. Uma avaliação sucinta dos resultados obtidos é também apresentada.

Ano

2022-12-06T14:47:11Z

Creators

Maria Tânia Francelino da Silva

DocRationale: uma ferramenta para suporte a design rationale de artefatos de software

Uma grande quantidade e variedade de artefatos é gerada durante o processo de desenvolvimento de um software. A documentação por meio dos diversos artefatos de tal processo é importante para proporcionar um bom conhecimento do software, além de tornar menos complicada a sua manutenção e reuso. Tais documentos, em geral, não registram informações adicionais relativas às alternativas, escolhas e decisões - Design Rationale (DR) - feitas durante a elaboração de cada artefato. O\" armazenamento e recuperação de DR dos artefatos de software tornaria mais simples a sua manutenção e facilitaria seu reuso, já que possibilita que o software torne-se mais completo de informações. O presente trabalho apresenta a ferramenta DocRationale que captura, armazena e recupera DR de artefatos de software. A DocRationale enfatiza a colaboração entre os desenvolvedores e a anotação estruturada por meio de uma simplificação de um modelo de representação de DR.

Ano

2022-12-06T14:47:11Z

Creators

Simone Domingues Francisco

Métodos auto-organizáveis para segmentação de imagens

Segmentação de imagens é um dos problemas mais investigados na área de computação visual. A complexidade desse problema varia de acordo com o tipo de aplicação. Em geral, o objetivo é dividir a imagem em regiões que apresentem propriedades similares. No presente trabalho, métodos auto-organizáveis para classificação não supervisionada e agrupamento de padrões são utilizados em tarefas de segmentação. O primeiro modelo refere-se à rede neural Fuzzy ART e o segundo é o Modelo de Misturas ICA (ICAMM) que faz uso da técnica ICA (Análise de Componentes Independentes) para descrever os dados em cada classe. Além da avaliação de desempenho dos modelos auto-organizáveis utilizados, foram propostas melhorias nos resultados de segmentação por meio da incorporação de técnicas de préprocessamento de imagens, que sejam capazes de tratar questões referentes à presença de ruídos, suavização de imagens e realce de bordas, de modo que as imagens se tornem mais adequadas ao processo de segmentação, tornando-o mais eficiente. Com esse objetivo, foi proposta uma metodologia para pré-processamento de imagens, que combina o método Sparse Code Shrinkage, para redução de ruídos e suavização da imagem, e o detector de bordas de Sobel, que tem a função de restaurar as bordas que foram borradas pelo processo de suavização. Outra contribuição original deste trabalho refere-se ao desenvolvimento do método EICAMM, que surgiu por meio da proposta de melhorias incorporadas ao modelo ICAMM, levando em consideração algumas limitações do método original e análises de como este poderia se tornar mais eficiente. Finalmente, unificando as duas principais contribuições originais desta tese, o método EICAMM foi utilizado na segmentação de imagens nas suas versões originais e pré-processadas pela metodologia proposta neste trabalho, tendo apresentado resultados de segmentação satisfatórios.

Ano

2022-12-06T14:47:11Z

Creators

Patrícia Rufino Oliveira

Recuperação de informação por similaridade utilizando técnicas inteligentes

A Recuperação de Informação por Similaridade (RIS) é um processo complexo que normalmente envolve bancos de dados volumosos e objetos em altas dimensões. Dois grupos do técnicas são amplamente utilizados para esse fim, Mapas Auto-Organizáveis (SOM Sdf-()rganizin(j Maps) e Métodos de Acesso (MA). Os dois grupos do técnicas apresentam limitações. A maioria dos SOM, especialmente os modelos derivados do mapa de Kohonen, utilizam quase que exclusivamente o processamento sequencial para encontrar a unidade vencedora. Por outro lado, tanto os Métodos de Acesso Espacial (MAE) quanto os Métodos de Acesso Métrico (MAM) não aproveitam o conhecimento gerado por consultas anteriores. (0111 o objetivo de resolver esses problemas, duas novas técnicas são propostas nesta tese. A primeira técnica está baseada em SOM e a segunda em MAE e MAM. Em primeiro lugar, para melhorar o desempenho de sistemas baseados em SOM, propoe-se a incorporação de MAE e MAM durante o treinamento, gerando-se as famílias denominadas SAM-SOM o MAM-SOM. Eni segundo lugar, os MAE e MAM foram aprimorados através da criação do módulo denominado PMAM, que é capaz de aproveitar o conhecimento gerado pelas consultas anteriores. A combinação do módulo PMAM com MAE e MAM deu origem às famílias MAE e MAM+. respectivamente. Como resultado deste trabalho ressalta-se que, tanto a família SAM-SOM quanto a MAM-SOM proporcionam uma melhora considerável em relação aos modelos de SOM tradicionais, os quais normalmente precisam de muito tempo de treinamento. Por outro lado. as famílias MAE+ e MAM+ têm a capacidade de reduzir, gradualmente. o número de operações necessárias para realizar uma consulta. Isto é possível porque o módulo PMAM permite reaproveitar o conhecimento gerado pelas consultas anteriores.

Ano

2022-12-06T14:47:11Z

Creators

Ernesto Cuadros Vargas

Pós-processamento de regras de regressão

O processo de Mineração de Dados inicia-se com o entendimento do domínio da aplicação, considerando aspectos como os objetivos da aplicação e as fontes de dados. Em seguida, é realizado o pré-processamento dos dados e a extração de padrões. Após a etapa de extração de padrões, vem a de pós-processamento, na qual o conhecimento é avaliado quanto a sua qualidade e/ou utilidade a fim de ser utilizado para apoio a algum processo de tomada de decisão. Recentemente, as pesquisas têm se voltado para problemas de regressão, porém a regressão em Mineração de Dados preditiva é uma questão pouco explorada dentro do processo de extração de conhecimento de bases de dados, sendo de grande relevância o estudo de métodos para a exploração de tarefas desse tipo. Alguns trabalhos vêm sendo realizados no Laboratório de Inteligência Computacional (LABIC) em temas relacionados ao processo de Extração de Conhecimento de Bases de Dados e Textos e na construção de um ambiente computacional para extração de conhecimento de dados denominado DlSCOVER. Para apoiar a construção de um modelo de regressão simbólico e o pós-processamento de problemas de regressão foi proposto e desenvolvido o Ambiente \'RTJ^FL, Esse ambiente viabiliza a avaliação de regras de regressão, inclusive disponibilizando estratégias para o cálculo da matriz de contingência e consequente utilização de todas as medidas derivadas dessa matriz para avaliação de regras de regressão; a combinação de regressores homogéneos e heterogéneos para melhorar a precisão dos regressores e a integração e poda de regras de regressão obtidas de diferentes amostras ou algoritmos. Essas funcionalidades do Ambiente íR$í\'I*PE incrementam a potencialidade do Ambiente DlSCOVER quanto ao tratamento de regressão.

Ano

2022-12-06T14:47:11Z

Creators

Jaqueline Brigladori Pugliesi

Context Kernel: um Web Service baseado nas dimensões de informação de contexto

No início dos anos 90, o pesquisador Mark Weiser vislumbrou uma forma de computação baseada na integração transparente entre tecnologia e atividades humanas a qual denominou computação ubíqua. Idealizada como uma mudança no paradigma de interação entre usuários e computadores, a computação ubíqua tem como temas de pesquisa interfaces naturais, aplicações cientes de contexto e aplicações de captura e acesso de atividades humanas. Desenvolvidos para apoiar serviços dedicados de captura, de armazenamento e de processamento de informações de contexto, esforços como Context Fabric, EventHeap e Gaia não exploram a plataforma de Web Services como alternativa para o tratamento da heterogeneidade entre aplicações; além disso, as dimensões de contexto propostas na literatura não são apoiadas diretamente. Este trabalho teve como propósito investigar e formalizar um conjunto de operações para armazenamento e recuperação de informações de contexto com base nas dimensões propostas na literatura: who, when, where, what, why e how. Como resultado, desenvolveu-se um núcleo de operações, denominado Context Kernel, implementado como um Web Service. Neste trabalho sao apresentadas a modelagem do Context Kernel, as especificações dos serviços em WSDL, a linguagem padrão para descrição de Web Services, e das APIs implementadas para acesso ao Context Kernel por aplicações Java e PHP.

Ano

2022-12-06T14:47:11Z

Creators

Carlos Roberto Esperança de Arruda Junior

Protótipo Evolutivo de um Sistema de Modelagem de Sólidos

Muitas vezes, a construção de modelos de objetos ou processos é não apenas conveniente mas também necessária para que se possa analisar e manipular processos ou objetos reais de maneira mais fácil e barata. Existem vários tipos de modelos, entre os quais os modelos computacionais. Estes são, geralmente, criados utilizando sistemas de modelagem interativos, como os sistemas de modelagem de sólidos, intensamente utilizados nas áreas de projeto e construção de peças, aviões, automóveis, etc... Esses modeladores podem utilizar várias técnicas de. modelagem geométrica para descrever um objeto, como os modelos por fronteira (\"Boundary Representation\", BRep) e os modelos CSG (\"Constructive Solid Geometry\"). Este trabalho trata da técnica de modelagem por fronteira e relata a construção de um primeiro protótipo do Sistema de Modelagem de Sólidos Tridimensionais (SMS), que está sendo desenvolvido no ICMSC-USP, São Carlos. Esse protótipo é constituído de um subsistema gerenciador de representações, responsável pelo acesso e atualização da representação B-Rep (interna), e uma interface simples contendo algumas operações de descrição de objetos. O sistema teve seu desenvolvimento baseado no \"Paradigma da Orientação a Objetos\". Uma discussão sobre modelagem de sólidos e modeladores de sólidos é apresentada, juntamente com a descrição do projeto orientado a objetos e a implementação do protótipo.

Ano

2022-12-06T14:47:11Z

Creators

Luis Paulo Barbour Scott

UM EDITOR GENÉRICO SENSÍVEL À SINTAXE ARMAZENADA NUMA BASE DE DADOS

Este trabalho descreve a implementação do Protótipo de um Editor Sensível à Sintaxe (PEGSS). Nesta versão o Editor oferece a edição sensível à sintaxe para um subconjunto das linguagens Pascal, C e FORTRAN. Programas sintaticamente corretos são construídos através da requisição pelo usuário de gabaritos que correspondem aos comandos e pela descrição das expressões. É proposto um modo único de representação interna dos programas editados sob o contexto desse Editor. Assim, um conjunto de ferramentas pode beneficiar-se dessa forma de representação. Por exemplo, é permitido que programas escritos em um linguagem sejam obtidos em qualquer das outras linguagens contempladas pelo Editor. Além disso, pode ser efetuada a adição de novas linguagens pertencentes a um mesmo paradigma, pois a construção dessa representação interna prevê esta extensão. Neste trabalho são apresentadas as caracteristicas do PEGSS: a estrutura utilizada para a exibição dos seus programas, a representação interna destes programas, a manipulação das expressões e, finalmente, como foram especificados e implementados os módulos principais que compõem este Sistema.

Ano

2022-12-06T14:47:11Z

Creators

Carlos Roberto Valêncio

UM SISTEMA BASEADO EM CONHECIMENTO PARA AUXILIAR NO PROCESSO DE ALOCAÇÃO DE RINS

O objetivo deste trabalho é o de apresentar o desenvolvimento e a implementação de um sistema para auxílio, aos usuários da área médica, no processo de alocação de rins a serem transplantados em pacientes com problemas renais. A idéia básica do sistema desenvolvido é a de utilizar um Sistema de Base de Dados para manter e gerenciar as informações relevantes para o processo de alocação de rins\' e um Sistema Baseado em Conhecimento responsável especificamente pelo processo de alocação. Durante a fase de desenvolvimento, contou-se com o auxilio do especialista no domínio de transplantes renais, Prof. Dr. Agenor Ferraz, médico e docente do Hospital das Clínicas da Faculdade de Medicina de Ribeirão Preto - USP. Buscou-se, também, utilizar as normas definidas pelo Protocolo São Paulo Interior Transplante.

Ano

2022-12-06T14:47:11Z

Creators

José Augusto Baranauskas

NÚCLEO BÁSICO PARA UM SERVIDOR DE NOMES BASEADOS EM ATRIBUTOS

O projeto e a implementação de Servidores de Nomes constituem fases importantes na construção de Sistemas Computacionais Distribuídos, pois esses módulos são encarregados de armazenar e fornecer informações para todo o sistema, garantindo seu funcionamento correto e seguro. Este trabalho apresenta um estudo detalhado sobre o serviço de nomeação, discutindo a maneira como é oferecido através dos servidores de nomes presentes na maioria dos ambientes computacionais distribuídos baseados em rede local. Ênfase especial é dada à descrição da estrutura e detalhes de implementação do \"SENA\" (SErvidor de Nomes baseado em Atributos), o qual se baseia no Paradigma de Nomeação Baseado em Atributos. Essa abordagem, adicionada ao ambiente de implementação, possibilita a obtenção de um servidor de nomes abrangente, que permite o gerenciamento de espaços de nomes em ambientes computacionais heterogêneos, sendo também capaz de atender solicitações tanto de outros módulos do sistema distribuído, como de usuários, através de um conjunto de funções, a partir das quais novas funções podem ser criadas pelos próprios usuários. As características apresentadas pelo SENA, levam à conclusão de que servidores de nomes baseados em atributos constituem uma alternativa extremamente atrativa na integração de espaços de nomes independentes, permitindo também a participação dos usuários na criação de serviços de nomeação personalizados. Portanto, um servidor de nomes baseado em atributos constitue um núcleo básico sobre o qual serviços de nomeação especializados podem ser construídos.

Ano

2022-12-06T14:47:11Z

Creators

Omar Heriberto Santos Valasco

PROBLEMA DE CORTE BIDIMENSIONAL GUILHOTINADO NÂO-ESTAGIADO E IRRESTRITO

O objetivo geral deste estudo é o de trabalhar o problema de corte bidimensional guilhotinado irrestrito e no-estagiado. Para tanto, foram revistas regras e heurísticas a serem utilizadas e foi sugerida uma combinação da regra de simetria com a heurística de geraçgo dos pontos de cortes possíveis. Uma abordagem em grafo-E/OU, com a utilizaçgo de uma estratégia híbrida, que combina as técnicas \"Hill-Climbing\" e \"Depth-First\" para a busca em grafo, foi utilizada para a resolução do problema. Finalmente, foram comparados os resultados obtidos com resultados apresentados na literatura.

Ano

2022-12-06T14:47:11Z

Creators

Silvana Aparecida Borsetti Gregorio Vidotti