Repositório RCAAP
Unsupervised Dimensionality Reduction in Big Data via Massive Parallel Processing with MapReduce and Resilient Distributed Datasets
The volume and complexity of data generated in scientific and commercial applications have been growing exponentially in many areas. Nowadays, it is common the need for finding patterns in Terabytes or even Petabytes of complex data, such as image collections, climate measurements, fingerprints and large graphs extracted from the Web or from Social Networks. For example, how to analyze Terabytes of data from decades of frequent climate measurements comprised of dozens of climatic features, such as temperatures, rainfall and air humidity, so to identify patterns that precede extreme weather events for use in alert systems? A well-known fact in complex data analysis is that the search for patterns requires preprocessing by means of dimensionality reduction, due to a problem known as the curse of high-dimensionality. Nowadays, few techniques have been able to effectively reduce the dimensionality of such data in the scale of Terabytes or even Petabytes, which are referred to in this monograph as Big Data. In this context, massively parallel processing, linear scalability to the number of objects, and the ability to detect the most diverse types of correlations among the attributes are exceptionally desirable. This MSc work presents an in-depth study comparing two distinct approaches for dimensionality reduction in Big Data: ( a ) a standard approach based on data variance preservation, and; ( b ) an alternative, Fractal-based solution that is rarely explored, for which we propose a fast and scalable algorithm based on MapReduce and concepts from Resilient Distributed Datasets, using a new attribute-set-partitioning strategy that enables us to process datasets of high dimensionality. We evaluated both strategies by inserting into 11 real-world datasets, redundant attributes formed by correlations of various types, such as linear, quadratic, logarithmic and exponential, and verifying the ability of these approaches to detect such redundancies. The results indicate that, at least for large datasets with up to 1;000 attributes, our fractal-based technique is the best option. It removed redundant attributes in nearly all cases with high precision, as opposed to the standard variance-preservation approaches that presented considerably worse results even when applying the KPCA technique that is made to detect nonlinear correlations.
2022-12-06T14:47:11Z
Jadson Jose Monteiro Oliveira
Alocação e Dimensionamento de Geração Distribuída em Sistemas Elétricos de Distribuição
A escassez de combustíveis fósseis e a preocupação crescente com preservação ambiente, têm incentivado novas formas sustentáveis de geração de energia elétrica. A luz desse contexto, a inserção de geradores distribuídos em sistemas de distribuição radiais, podem levar a vários benefícios, como a postergação no investimento da expansão do sistema de transmissão e distribuição, diversificação da matriz energéticas dos países, redução de perdas, confiabilidade do sistema, além de contribuir para demanda de energia. A redução de perdas de energia elétrica na rede de distribuição tem sido uma prioridade importante, tendo em vista, que ela mesma levará não somente benefício financeiros, como também técnicos. Várias abordagens têm sido propostas durante décadas para o problema de minimização de perdas em sistema de distribuição, duas técnicas têm sida amplamente utilizadas como, a reconfiguração e alocação de geradores distribuídos. Neste contexto, esse trabalho apresenta duas propostas de reconfiguração, alocação e dimensionamento de geradores distribuídos. O primeiro um modelo de programação quadrática inteira mista (PQIM) e o segundo um algoritmo genético multi-populacional (AGM). Em ambas abordagens, os problemas de reconfiguração, alocação e dimensionamento podem serem tratados de forma individual, sequencial ou simultânea. As simulações foram realizadas nos sistemas de 33 barras, 69 barras, 70 barras, 83 barras, 135 barras, 201 barras e 10476 bus, os resultados obtidos mostraram-se de boa qualidade, e desta forma mostrando ainda a validade das abordagens propostas.
2022-12-06T14:47:11Z
Alessandro Wilk Silva Almeida
Seleção supervisionada de características por ranking para processar consultas por similaridade em imagens médicas
Obter uma representação sucinta e representativa de imagens médicas é um desafio que tem sido perseguido por pesquisadores da área de processamento de imagens médicas com o propósito de apoiar o diagnóstico auxiliado por computador (Computer Aided Diagnosis - CAD). Os sistemas CAD utilizam algoritmos de extração de características para representar imagens, assim, diferentes extratores podem ser avaliados. No entanto, as imagens médicas contêm estruturas internas que são importantes para a identificação de tecidos, órgãos, malformações ou doenças. É usual que um grande número de características sejam extraídas das imagens, porém esse fato que poderia ser benéfico, pode na realidade prejudicar o processo de indexação e recuperação das imagens com problemas como a maldição da dimensionalidade. Assim, precisa-se selecionar as características mais relevantes para tornar o processo mais eficiente e eficaz. Esse trabalho desenvolveu o método de seleção supervisionada de características FSCoMS (Feature Selection based on Compactness Measure from Scatterplots) para obter o ranking das características, contemplando assim, o que é necessário para o tipo de imagens médicas sob análise. Dessa forma, produziu-se vetores de características mais enxutos e eficientes para responder consultas por similaridade. Adicionalmente, foi desenvolvido o extrator de características k-Gabor que extrai características por níveis de cinza, ressaltando estruturas internas das imagens médicas. Os experimentos realizados foram feitos com quatro bases de imagens médicas do mundo real, onde o k-Gabor sobressai pelo desempenho na recuperação por similaridade de imagens médicas, enquanto o FSCoMS reduz a redundância das características para obter um vetor de características menor do que os métodos de seleção de características convencionais e ainda com um maior desempenho em recuperação de imagens
2022-12-06T14:47:11Z
Gabriel Efrain Humpire Mamani
Empregando técnicas de projeção multidimensional para transformação interativa de espaços de características
A tecnologia atual permite armazenar grandes quantidades de dados, no entanto sua exploração e compreensão resultam em um enorme desafio devido não só ao tamanho dos conjuntos produzidos mas também sua complexidade. Nesse sentido a visualização de informação vem se mostrando um recurso extremamente poderoso para ajudar a interpretar e extrair informação útil desse universo de dados. Dentre as abordagens existentes, as tecnicas de projeção multidimensional estão emergindo como um instrumento de visualização importante em aplicações que implicam a análise visual de dados de alta dimensão devido ao poder analítico que essas oferecem na exploração de relações de similaridade e correlação de dados abstratos. Contudo, os resultados obtidos por tais técnicas estão intimamente ligados à qualidade do espaço de características que descrevem os dados sendo processados. Se o espaço for bem formado e refletir as relações de similaridade esperadas por um usuário, os resultados nais serão satisfatórios. Caso contrário pouca utilidade terão as representações visuais geradas. Neste projeto de mestrado técnicas de projeção multidimensional são empregadas, para, não somente explorar conjuntos de dados multidimensionais, mas também para servir como um guia em um processo que visa \"moldar\" espaços de características. A abordagem proposta se baseia na combinação de projeções de amostras e mapeamentos locais, permitindo ao usuário de forma interativa transformar os atributos dos dados por meio da modicação dessas projeções. Mais especicamente, as novas relações de similaridade criadas pelo usuário na manipulação das projeções das amostras são propagadas para o espaço de característica que descreve os dados, transformando-o em um novo espaço que reflita essas relações, ou seja, o ponto de vista do usuário sobre as semelhanças e diferenças presentes nos dados. Resultados experimentais mostram que a abordagem desenvolvida nesse projeto pode com sucesso transformar espaços de características com base na manipulação da projeção de pequenas amostras, melhorando a coesão e separação de grupos. Com base no ferramental criado, um sistema de recuperação de imagens por conteúdo e sugerido, mostrando que a abordagem desenvolvida pode ser bastante útil nesse tipo de aplicação
2022-12-06T14:47:11Z
Gladys Marleny Hilasaca Mamani
RELAXAÇÃO LAGRANGEANA EM PROGRAMAÇÃO INTEIRA
Neste trabalho abordamos a teoria da relaxação lagrangeana para resolução de problemas de programação linear inteira, a qual tem sido extensivamente usada e apresentado resultados satisfatórios. Esta abordagem busca reformular um problema inteiro, fazendo deste um problema mais simples. Para tal, relaxa-se algumas restrições, colocando-as como um termo \"penalidade\" na função objetivo, criando assim o chamado \"problema lagrangeano\". É formulado o problema dual, o qual pode ser resolvido pelo método subgradiente ou variações deste. A relaxação lagrangeana tem mostrado muita eficiência também quando usada para gerar limitantes para o algoritmo \"Branch-and-Bound\". Em muitos casos tais limitantes são melhores que os dado pela relaxação linear, gerando uma árvore de tamanho reduzido. Esta técnica lagrangeana tem sido aplicada com sucesso a um grande número de problemas importantes de pesquisa operacional, por exemplo: rotas, localização, sequenciamento, designação, cobertura entre outros.
2022-12-06T14:47:11Z
Helenice de Oliveira Florentino Silva
Uma abordagem baseada em córpus e em sistemas de crítica para a construção de ambientes Web de auxílio à escrita acadêmica em português
Ferramentas computacionais destinadas a auxiliar a escrita na língua inglesa têm se tornado cada vez mais comuns, incluindo tanto sistemas dedicados ao pós-processamento do texto como sistemas mais completos, que atuam desde a geração e organização de idéias até a escrita. Entre esses sistemas M aqueles que apóiam especificamente a escrita de textos acadêmicos, um gênero mais tratável computacionlmente dada a sua rigorosa padronização. Em contraste, para o português não há sistemas semelhantes, mas apenas ferramentas de pós-processamento, como corretores ortográficos, revisores gramaticais, dicionários para consulta, entre outras, de aplicação geral. Nesta tese de doutorado, focalizamos o problema da escrita em português de teses e dissertações, visando uma modelagem computacional que segue uma abordagem baseada em córpus e em sistemas de crítica, para a criação e avaliação de ferramentas de apoio à criação de textos desse gênero. Para viabilizar o projeto, restringimos nossa análise às seções Resumo e Introdução, notadamente mais padronizadas, e à área de Ciência cia. Computado. A integração dos recursos e ferramentas desenvolvidos resultou no protótipo SeiPo (Scientific Portuguese), implementado como um ambiente Web, que contempla tanto a composição top-down do texto (partindo do planejamento estrutural para a escrita propriamente dita) quanto bottom-up (partindo de um rascunho já escrito). Para avaliar o ScíPo no seu contexto de uso, foram realizados experimentos com usuários reais, visando verificar a eficácia do modelo subjacente ao SeiPo. Os resultados desses experimentos demonstraram que tal modelo de fato tem potencial no auxílio à escrita acadêmica.
2022-12-06T14:47:11Z
Valéria Delisandra Feltrim
Balanceamento de Carga em Ambientes Paralelos Virtuais com Aplicações no PVM-W95
Esta dissertação de mestrado aborda o problema de balanceamento de carga em ambientes paralelos virtuais, com aplicações desenvolvidas em PVM-W95. São considerados no desenvolvimento deste trabalho algoritmos de balanceamento estáticos e dinâmicos, incluindo métodos de distribuição e de migração de tarefas. O trabalho apresenta uma vasta revisão bibliográfica que cobre os principais métodos e algoritmos de balanceamento de cargas em ambientes distribuídos e paralelos, propostos nos últimos anos. Os métodos e algoritmos relevantes para o domínio de aplicação considerado são cuidadosamente investigados. Os algoritmos estudados são implementados como parte dos programas de aplicação e o estudo desenvolvido abrange fundamentalmente programas com alto processamento numérico. Os resultados obtidos mostram claramente que o método gradiente e os algoritmos globais são os mais eficientes para os programas aplicativos desenvolvidos e para o ambiente paralelo virtual adotado.
2022-12-06T14:47:11Z
Flavio Arnaldo Braga da Silva
Sistemas Hipermídia para o Ensino: Estendendo as Facilidades para o Tutor e o Estudante
Este trabalho discute o potencial e, principalmente, os problemas decorrentes do uso de sistemas hipermídia tradicionais (i.é redes de páginas manipuladas por browser) em aplicações de ensino & aprendizagem. Argumenta-se que um dos grandes problemas dos sistemas hipermídia consiste na usual falta de qualquer controle sobre a navegação do usuário, que pode refletir negativamente no processo de aprendizagem. O trâbalho propõe, e implementa no protótipo SASHE, o uso de recursos extremamente simples, como a associação de atributos aos nós do hiperdocumento, bem como a exploração da característica de aninhamento (ou composição) de nós, já usual nos modelos conceituais de hipermídia, para modelar aplicações hipermídia que atendam a algumas das necessidades tanto do autor quanto do estudante. Tais contribuições consistem em: a) oferecer mais recursos ao usuário-estudante, além das funções de controle; isto se dá através de um conjunto botões da interface para o acesso a informações contextuais, de controle e estratégicas (busca de nós alternativos de acordo com dificuldade associada e nó atual); b) oferecer mais recursos ao usuário-autor, no sentido de fornecer-lhe ferramentas de autoria de hiperdocumentos \"qualificados\" para aplicações no ensino (independente do domínio de conhecimento), bem como de possibilitar a criação de roteiros que imprimem uma forma de controle \"flexível\": ao selecionar cada nó que fará pafte de um roteiro, o autor pode definir um \"grau de liberdade\" associado, correspondente a um contexto da hierarquia que engloba aquele nó. O autor, ao definir os limites de \"fuga\" do roteiro, indica quais informações periféricas podem contribuir à leitura do estudante, sem interferirem negativamente nos objetivos do autor.
2022-12-06T14:47:11Z
Gustavo Henrique Rosalem dos Santos
Uso de Modelos de Estratégia de Tipo II em Confiabilidade de Software
Nesta dissertação de mesûado, exploramos os modelos estatísticos de confiabilidade de softrvare que utilizam os processos de Poisson homogêneo e não homogêneo para modelagem dos dados de falhas. Para modelar os instantes de falhas, escolhemos a classe de modelos de estatísticas de ordem proposta por Yang (1994). Propomos uma extensão desses modelos, considerando a distribuição gaussiana inversa, para modelar a função de valor médio dos processos de Poisson não homogêneo. Os métodos considerados para fazet inferências pam os parâmetros de interesse são os métodos Bayesianos. Exploramos, ainda, o uso de algorinnos de Metropolis com etapas Gibbs para desenvolver a inferência Bayesiana. Tendo em vista a verificação das suposições dos modelos de estatísticas de ordem, desenvolvemos e incorporamos algumas técnicas Bayesianas de diagnóstico. Baseamos a seleção de modelos nos valores de predição ordenados. A metodologia desenvolvida neste trabalho é exemplificada com conjuntos de dados introduzidos por Jelinski e Moranda (1972) e Goel (1985).
2022-12-06T14:47:11Z
Karin Storani
Solução Numérica de Escoamentos Axisimétricos Não-Newtonianos com Superfícies Livres
Este trabalho apresenta um método numérico para resolver escoamentos axisimétricos não-Newtonianos com superfícies livres. A metodologia empregada é uma extensão do código bidimensional GENSMAC para problemas axisimétricos. O código GENSMAC é uma técnica numérica que utiliza o método das particulas marcadoras ( \"marker-and-cell\" ) para simular escoamentos incompressíveis transientes. As equações governantes são resolvidas usando o método de diferenças finitas numa malha diferenciada ( \"staggered grid\" ). O fluido é representado por partículas marcadoras, as quais permitem a localização e visualização da superfície livre do fluido. Vários exemplos que demonstram a aplicação dessa nova técnica são apresentados. Em particular, a simulação de enchimento de moldes, do \"die-swell\" e do \"splashing drop\" são apresentados.
2022-12-06T14:47:11Z
Luciane Grossi
Inferência em Confiabilidade de Software Utilizando o Modelo de Goel e Okumoto com Captura-Recaptura
Nesta dissertação de mestrado, apresentamos uma abordagem clássica e Bayesiana para o modelo de Captura-Recaptura proposto por Nayak (1988) para obter informação sobre o número de falhas, N, em um sistema de confiabitidade. A probabilidade de corrigir um elro, p, é assumida ser conhecida e desconhecida. Mostramos que o e.m.v. de N depende não somente das freqüências dos erros detectados, como também dos tempos entre falhas. A \'sensibilidade\' da distribuição a posteriori de N com respeito a p e a influência dos tempos entre falhas, são considerados através da distância da variação total e divergência de Kullback-Leibler. Também mostramos que a correção por recaptura é uma condição necessária para a existência da distribuição a posteriori de N quando utilizamos uma priori imprópria.
2022-12-06T14:47:11Z
Luciano Barbosa
Uma Metodologia para Representação do Tempo em Modelos de Dados
Este trabalho estuda implicações do tempo na modelagem de dados e o tratamento a ele dispensado nos Modelos de Dados construídos para este fim. Busca-se soluções à representação do tempo em Sistemas de Informações apoiados em BD relacionais . Para este fim foram pesquisados conceitos de tempo, modelos de dados temporais e outras soluções propostas na literatura. A base desta pesquisa é resolver situações práticas de um projeto de Sistema de Informações (estudo de caso em uma Empresa de Telefonia) onde o tratamento de tempo é imprescindível. são propostas soluções que incorporam o tratamento de tempo no Modelo Entidade-Relacionamento Estendido, as quais podem ser generalizadas para atender problemas com características semelhantes.
2022-12-06T14:47:11Z
Luis Ricardo de Figueiredo
Problema de Corte Bidimensional Guilhotinado Restrito em 2-Estágios
Uma placa de dimensões (L,W) deve ser cortada para produzir m peças de dimensões (li, wi), às quais estão associados valores de utilidade vi e um limite máximo bi (problema restrito), i =1,...,m. Os cortes são do tipo guilhotinado e limitados a 2-estágios. O problema consiste em maximizar o valor de utilidade total. Neste trabalho estendemos a abordagem clássica de Glmore e Gomory para problemas irrestritos, onde apresentamos um modelo matemático de otimização inteira não-linear, e propomos métodos de solução baseados na relaxação lagrangeana e heurísticas. Resultados computacionais são apresentados ao final.
2022-12-06T14:47:11Z
Maria Cristina Nogueira Gramani
Representação de Audio em Banco de Dados
Os sistemas de banco de dados têm sofrido um processo de constante evolução, e ultimamente, diversas novas frentes têm se aberto. Uma frente importante é a da orientação a objetos, com a criação dos SGBD00- Sistemas Gerenciadores de Banco de Dados Orientado a Objetos. Dentre os vários SGBDOO existentes temos: 02, GemStone, Object Store, MRO-Modelo de Representação de Objetos, entre outros. Este trabalho apresenta um estudo de diversos sistemas. Em cada um deles foi analisado interfaces, controle de versões, gerenciamento de armazenamento, linguagem de manipulação de esquemas, arquitetura do sistema, entre outros.Além deste estudo foram analisadas características de áudio. De acordo com a acústica - uma parte da fisica - o som é o efeito produzido no aparelho auditivo pelas vibrações das moléculas de um meio transmissor. Este meio transmissor normalmente é o ar, mas também existem outros meios possíveis [Gome931.Foram verificadas as várias formas de gravação de áudio, entre elas a digitalização e a síntese. No processo de gravação foram analisados alguns formatos de arquivo para armazenamento, permitindo assim o balizamento da escolha. Dentre os formatos estudados estão: MOD, WAV, SBI e SBK, SNG e MIDI.Com base nestes estudos realizados, este trabalho apresenta uma avaliação das técnicas para a armazenagem e recuperação de áudio em bases de dados. O modelo de dados que serve de suporte para essa avaliação é o MIRO sendo que o GEO é a implementação do MIRO. Foi feito o tratamento de som em nível de esquema para o modelo e em nível de interface para o GEO. O tratamento de som permite o armazenamento e a recuperação de músicas, usando o formato MIDI.
2022-12-06T14:47:11Z
Marisa Beck Figueiredo
Modelo de Avaliação de Processo de Software para Pequena Empresa
Avaliação de processo é a primeira etapa para a melhoria de qualidade de processo de software. Através da melhoria de processo, é possível obter-se um produto de software com maior qualidade, atualmente um fator de diferenciação entre as empresas que desenvolvem software. Este trabalho apresenta um modelo de avaliação de processo de software (MAPPE), apropriado à empresas de pequeno porte, visto que os modelos de avaliação e melhoria mais utilizados (CMM, SPICE e ISO 9000-3), devido à complexidade, são inadequados para essas empresas. para a elaboração do modelo, utilizou-se parcialmente a estrutura do modelo SplCE, que usa para a avaliação, um modelo padrão de processo de software, que no caso deste trabalho é um modelo adequado à pequena empresa. O Modelo de Avaliação de Processo de Software para pequena Empresa - MAPPE, proposto neste trabalho, pode mostrar as deficiências dos processos. de software atuais das empresas, indicando atividades que precisam ser melhoradas e possibilitando assim a obtenção de produtos de software com maior qualidade.
2022-12-06T14:47:11Z
Paola Goulart Rosa
Redes Neurais Artificiais para Extração de Características
Métodos para extração de características têm como objetivo selecionar, a partir de um conjunto de dados, características que representem informações relevantes ou que sejam básicas para diferenciar uma classe de objetos de outras. Neste trabalho, são apresentadas duas metodologias que podem ser usadas para extração de características. A primeira utiliza métodos estatísticos clássicos como Análise de Componentes Principais (PCA), Análise Discriminante Linear (LDA) e Análise de Cluster. A segunda consiste na utilização de arquiteturas de Redes Neurais Artificiais (RNA) que implementam os mesmos métodos estatísticos. O desempenho dos modelos de RNA apresentados são avaliados, considerando-se a utilização destes na extração de características de um pequeno conjunto de dados e, para investigar a aplicabilidade desses modelos na área de processamento de imagens, uma das redes que implementa PCA é utilizada na tarefa de compressão de algumas imagens médicas. Os resultados obtidos pela rede PCA são comparados com outros provenientes da aplicação da análise PCA clássica e do padrão JPEG (Joint Photographic Experts Group) para o mesmo conjunto de imagens.
2022-12-06T14:47:11Z
Patrícia Rufino Oliveira
Fusion-Re-I - Um Método de Engenharia Reversa para Auxiliar a Manutenção de Software\".
Este trabalho apresenta um método de engenharia reversa, denominado FUSIONRE/ I (Fusion - Reverse Engineering / Interface), para auxiliar a atividade de manutenção de software. O método é baseado nos conceitos e idéias do método FUSION-RE de engenharia reversa orientada a objetos. O método FUSION-RE/I fornece mecanismos para abstrair Visões Funcionais (Modelos de Análise de Sistemas de acordo com o Método Fusion) e Visões Estruturais (Quadro de Operações-Procedimentos de Implementação) a partir de aspectos operacionais e de dados disponíveis via interface usuário-computador. O método FUSION-RE/I foi desenvolvido a partir da experiência da aplicação de engenharia reversa na ferramenta Proteum V1.1 C, uma ferramenta de teste desenvolvida no ICMSC-USP, que apoia o critério Análise de Mutantes para programas escritos na linguagem C.
2022-12-06T14:47:11Z
Rejane Moreira da Costa Figueiredo
Uma Forma de Implantação de Gerenciamento de Configuração de Software em Empresas de Pequeno Porte
Gerenciamento de configuração de software é uma das primeiras exigências para se ter um processo de software com qualidade. Entretanto, essa atividade é difícil de ser implantada, principalmente em empresas de pequeno porte. Este trabalho propõe um plano de implantação de gerenciamento de configuração de software destinado a essas empresas. Para isso foi realizada uma pesquisa empírica --- utilizando o método Goal/ Question/ Metric (GQM) para identificar como as empresas de pequeno de porte realizam gerenciamento de configuração. O resultado mostrou que elas não realizam gerenciamento de configuração e, por isso, as atividades contidas no padrão IEEE Std 828-1990 foram consideradas como base para o plano proposto. O plano detalha os procedimentos técnicos e administrativos necessários para (a) a execução das atividades de identificação da configuração, (b) relato de situação e (c) controles de versões e mudanças. O controle de versões é apoiado pela ferramenta de controle de versões de baixo custo Quma Version Control System (QVCS) --- uma exigência necessária para a implantação do plano em empresas de pequeno porte. Esse plano permite que essas empresas dêem o primeiro passo na direção da melhoria de qualidade de processos de software.
2022-12-06T14:47:11Z
Renato Ferrari Pacheco
Utilização de Múltiplos Dutos Ethernet para Redes Multimídia
Nesse trabalho, é projetada e implementada uma modificação do módulo de acesso à rede do conjunto de protocolos TCP/IP para, transparentemente às aplicações, aumentar a largura de banda de redes locais típicas, como ethernet, através do uso de múltiplos dutos. Um estudo detalhado dos serviços disponíveis pelos vários protocolos constituintes da tecnologia internet e das interfaces de acesso de programa é feita. Uma avaliação da pilha de protocolos é descrita, mostrando qual a melhor posição para se fazer a divisão do fluxo de dados. A modificação ao nível do driver, mostrou-se a mais conveniente, provendo um modo simples de implementação e instalação. A escolha do duto a ser utilizado por um determinado pacote é feita pela avaliação do número de porta que aparece no header TCP ou UDP. Alguns testes foram realizados de modo a demonstrar a eficiência do sistema.
2022-12-06T14:47:11Z
Roberto Henrique Froehlich
Sistema de Videoconferência em Redes de Computadores
Com o crescente aumento na área de Aplicações Multimídia e Redes de Computadores, devido ao grande progresso nas industrias de hardware e soþ,vare, tornou-se possível a utilização de áudio e vídeo como mecanismo de comunicação em redes de computadores. Esses recursos contribuíram para uma maior consistência e um melhor aproveitamento na assimilação da mensagem a ser transmitida. Este trabalho, apresenta a implementação de um Sistema de Videoconferência utilizando os algoritmos de compressão ADPCM (para áudio) e H26l (para vídeo). O sistema de videoconferência foi implementado e testado sobre redes TCP/IP. Os resultados são apresentados e discutidos no fim.
2022-12-06T14:47:11Z
Robson Augusto Siscoutto