Repositório RCAAP

Modeling spreading processes in complex networks

Mathematical modeling of spreading processes have been largely studied in the literature, and its presented a boom in the past few years. This is a fundamental task on the understanding and prediction of real spreading processes on top of a population and are subject to many structural and dynamical constraints. Aiming at a better understanding of this processes, we focused in two task: the modeling and the analysis of both dynamical and structural aspects of these processes. Initially, we proposed a new and general model that unifies epidemic and rumor spreading. Besides, regarding the analysis of these processes, we extended the classical formalism to multilayer networks, in which the theory was lacking. Interestingly, this study opened up new challenges concerning the understanding of multilayer networks. More specifically, regarding their spectral properties. In this thesis, we analyzed such processes on top of single and multilayer networks. Thus, throughout our analysis, we followed three complementary approaches: (i) analytical, (ii) numerical and (iii) simulations, mainly Monte Carlo simulations. Our main results are: (i) a new unifying model, enabling us to model and understand spreading processes on large systems, (ii) characterization of new phenomena on multilayer networks, such as layer-wise localization and the barrier effect and (iii) an spectral analysis of multilayer systems, suggesting a universal parameter and proposing a new analytical tool for its analysis. Our contributions enable further research on modeling of spreading processes, also emphasizing the importance of considering the complete multilayer structure instead of any coarse-graining. Additionally, it can be directly applied on the prediction and modeling real processes. Thus, aside from the theoretical interest and its mathematical implications, it also presents important social impact.

Ano

2022-12-06T14:47:11Z

Creators

Guilherme Ferraz de Arruda

"O framework de integração do sistema DISCOVER"

Talvez uma das maiores capacidades do ser humano seja a sua habilidade de aprender a partir de observações e transmitir o que aprendeu para outros humanos. Durante séculos, a humanidade vem tentado compreender o mundo em que vive e, a partir desse novo conhecimento adquirido, melhorar o mundo em que vive. O desenvolvimento da tecnologia colocou a descoberta de conhecimento em um momento ímpar na história da humanidade. Com os progressos da Ciência da Computação, e, em particular, da Inteligência Artificial - IA - e Aprendizado de Máquina -AM, hoje em dia é possível, a partir de métodos de inferência indutiva e utilizando um conjunto de exemplos, descobrir algum tipo de conhecimento implícito nesses exemplos. Entretanto, por ser uma área de pesquisa relativamente nova, e por envolver um processo tanto iterativo quanto interativo, atualmente existem poucas ferramentas que suportam eficientemente a descoberta de conhecimento a partir dos dados. Essa falta de ferramentas se agrava ainda mais no que se refere ao seu uso por pesquisadores em Aprendizado de Máquina e Aquisição de Conhecimento. Esses fatores, além do fato que algumas pesquisas em nosso Laboratório de Inteligência Computacional - LABIC - têm alguns componentes em comum, motivaram a elaboração do projeto Discover, que consiste em uma estratégia de trabalho em conjunto, envolvendo um conjunto de ferramentas que se integram e interajam, e que supram as necessidades de pesquisa dos integrantes do nosso laboratório. O Discover também pode ser utilizado como um campo de prova para desenvolver novas ferramentas e testar novas idéias. Como o Discover tem como principal finalidade o seu uso e extensão por pesquisadores, uma questão principal é que a arquitetura do projeto seja flexível o suficiente para permitir que novas pesquisas sejam englobadas e, simultaneamente, deve impor determinados padrões que permitam a integração eficiente de seus componentes. Neste trabalho, é proposto um framework de integração de componentes que tem como principal objetivo possibilitar a criação de um sistema computacional a partir das ferramentas desenvolvidas para serem utilizadas no projeto Discover. Esse framework compreende um mecanismo de adaptação de interface que cria uma camada (interface horizontal) sobre essas ferramentas, um poderoso mecanismo de metadados, que é utilizado para descrever tanto os componentes que implementam as funcionalidades do sistema quanto as configurações de experimentos criadas pelos usuário, que serão executadas pelo framework, e um ambiente de execução para essas configurações de experimentos.

Ano

2022-12-06T14:47:11Z

Creators

Ronaldo Cristiano Prati

Uso de aspectos para apoiar a evolução não funcional de frameworks: aplicação ao framework GREN

Esta dissertação apresenta a evolução do framework orientado a objetos GREN, realizada usando a abordagem de Programação Orientada a Aspectos. Nessa evolução foram considerados apenas requisitos não-funcionais que não haviam sido implementados nas versões originais do GREN, mais especificamente os requisitos de segurança (autenticação, registro de acesso e controle de acesso). A implementação desses requisitos deu origem a um Subsistema de Segurança orientado a aspectos, que permite a autenticação, registro de acesso e controle de acesso de usuários sobre as aplicações instanciadas a partir do GREN. Também é apresentada a evolução da ferramenta para instanciação automática do GREN, o GREN-Wizard, para torná-la compatível com a nova versão do GREN. Para a evolução do GREN foi seguido um processo de evolução de frameworks proposto na literatura que sofreu influência deste trabalho em seu refinamento. Uma avaliação sucinta dos resultados obtidos é também apresentada.

Ano

2022-12-06T14:47:11Z

Creators

Maria Tânia Francelino da Silva

DocRationale: uma ferramenta para suporte a design rationale de artefatos de software

Uma grande quantidade e variedade de artefatos é gerada durante o processo de desenvolvimento de um software. A documentação por meio dos diversos artefatos de tal processo é importante para proporcionar um bom conhecimento do software, além de tornar menos complicada a sua manutenção e reuso. Tais documentos, em geral, não registram informações adicionais relativas às alternativas, escolhas e decisões - Design Rationale (DR) - feitas durante a elaboração de cada artefato. O\" armazenamento e recuperação de DR dos artefatos de software tornaria mais simples a sua manutenção e facilitaria seu reuso, já que possibilita que o software torne-se mais completo de informações. O presente trabalho apresenta a ferramenta DocRationale que captura, armazena e recupera DR de artefatos de software. A DocRationale enfatiza a colaboração entre os desenvolvedores e a anotação estruturada por meio de uma simplificação de um modelo de representação de DR.

Ano

2022-12-06T14:47:11Z

Creators

Simone Domingues Francisco

Métodos auto-organizáveis para segmentação de imagens

Segmentação de imagens é um dos problemas mais investigados na área de computação visual. A complexidade desse problema varia de acordo com o tipo de aplicação. Em geral, o objetivo é dividir a imagem em regiões que apresentem propriedades similares. No presente trabalho, métodos auto-organizáveis para classificação não supervisionada e agrupamento de padrões são utilizados em tarefas de segmentação. O primeiro modelo refere-se à rede neural Fuzzy ART e o segundo é o Modelo de Misturas ICA (ICAMM) que faz uso da técnica ICA (Análise de Componentes Independentes) para descrever os dados em cada classe. Além da avaliação de desempenho dos modelos auto-organizáveis utilizados, foram propostas melhorias nos resultados de segmentação por meio da incorporação de técnicas de préprocessamento de imagens, que sejam capazes de tratar questões referentes à presença de ruídos, suavização de imagens e realce de bordas, de modo que as imagens se tornem mais adequadas ao processo de segmentação, tornando-o mais eficiente. Com esse objetivo, foi proposta uma metodologia para pré-processamento de imagens, que combina o método Sparse Code Shrinkage, para redução de ruídos e suavização da imagem, e o detector de bordas de Sobel, que tem a função de restaurar as bordas que foram borradas pelo processo de suavização. Outra contribuição original deste trabalho refere-se ao desenvolvimento do método EICAMM, que surgiu por meio da proposta de melhorias incorporadas ao modelo ICAMM, levando em consideração algumas limitações do método original e análises de como este poderia se tornar mais eficiente. Finalmente, unificando as duas principais contribuições originais desta tese, o método EICAMM foi utilizado na segmentação de imagens nas suas versões originais e pré-processadas pela metodologia proposta neste trabalho, tendo apresentado resultados de segmentação satisfatórios.

Ano

2022-12-06T14:47:11Z

Creators

Patrícia Rufino Oliveira

Recuperação de informação por similaridade utilizando técnicas inteligentes

A Recuperação de Informação por Similaridade (RIS) é um processo complexo que normalmente envolve bancos de dados volumosos e objetos em altas dimensões. Dois grupos do técnicas são amplamente utilizados para esse fim, Mapas Auto-Organizáveis (SOM Sdf-()rganizin(j Maps) e Métodos de Acesso (MA). Os dois grupos do técnicas apresentam limitações. A maioria dos SOM, especialmente os modelos derivados do mapa de Kohonen, utilizam quase que exclusivamente o processamento sequencial para encontrar a unidade vencedora. Por outro lado, tanto os Métodos de Acesso Espacial (MAE) quanto os Métodos de Acesso Métrico (MAM) não aproveitam o conhecimento gerado por consultas anteriores. (0111 o objetivo de resolver esses problemas, duas novas técnicas são propostas nesta tese. A primeira técnica está baseada em SOM e a segunda em MAE e MAM. Em primeiro lugar, para melhorar o desempenho de sistemas baseados em SOM, propoe-se a incorporação de MAE e MAM durante o treinamento, gerando-se as famílias denominadas SAM-SOM o MAM-SOM. Eni segundo lugar, os MAE e MAM foram aprimorados através da criação do módulo denominado PMAM, que é capaz de aproveitar o conhecimento gerado pelas consultas anteriores. A combinação do módulo PMAM com MAE e MAM deu origem às famílias MAE e MAM+. respectivamente. Como resultado deste trabalho ressalta-se que, tanto a família SAM-SOM quanto a MAM-SOM proporcionam uma melhora considerável em relação aos modelos de SOM tradicionais, os quais normalmente precisam de muito tempo de treinamento. Por outro lado. as famílias MAE+ e MAM+ têm a capacidade de reduzir, gradualmente. o número de operações necessárias para realizar uma consulta. Isto é possível porque o módulo PMAM permite reaproveitar o conhecimento gerado pelas consultas anteriores.

Ano

2022-12-06T14:47:11Z

Creators

Ernesto Cuadros Vargas

Pós-processamento de regras de regressão

O processo de Mineração de Dados inicia-se com o entendimento do domínio da aplicação, considerando aspectos como os objetivos da aplicação e as fontes de dados. Em seguida, é realizado o pré-processamento dos dados e a extração de padrões. Após a etapa de extração de padrões, vem a de pós-processamento, na qual o conhecimento é avaliado quanto a sua qualidade e/ou utilidade a fim de ser utilizado para apoio a algum processo de tomada de decisão. Recentemente, as pesquisas têm se voltado para problemas de regressão, porém a regressão em Mineração de Dados preditiva é uma questão pouco explorada dentro do processo de extração de conhecimento de bases de dados, sendo de grande relevância o estudo de métodos para a exploração de tarefas desse tipo. Alguns trabalhos vêm sendo realizados no Laboratório de Inteligência Computacional (LABIC) em temas relacionados ao processo de Extração de Conhecimento de Bases de Dados e Textos e na construção de um ambiente computacional para extração de conhecimento de dados denominado DlSCOVER. Para apoiar a construção de um modelo de regressão simbólico e o pós-processamento de problemas de regressão foi proposto e desenvolvido o Ambiente \'RTJ^FL, Esse ambiente viabiliza a avaliação de regras de regressão, inclusive disponibilizando estratégias para o cálculo da matriz de contingência e consequente utilização de todas as medidas derivadas dessa matriz para avaliação de regras de regressão; a combinação de regressores homogéneos e heterogéneos para melhorar a precisão dos regressores e a integração e poda de regras de regressão obtidas de diferentes amostras ou algoritmos. Essas funcionalidades do Ambiente íR$í\'I*PE incrementam a potencialidade do Ambiente DlSCOVER quanto ao tratamento de regressão.

Ano

2022-12-06T14:47:11Z

Creators

Jaqueline Brigladori Pugliesi

Context Kernel: um Web Service baseado nas dimensões de informação de contexto

No início dos anos 90, o pesquisador Mark Weiser vislumbrou uma forma de computação baseada na integração transparente entre tecnologia e atividades humanas a qual denominou computação ubíqua. Idealizada como uma mudança no paradigma de interação entre usuários e computadores, a computação ubíqua tem como temas de pesquisa interfaces naturais, aplicações cientes de contexto e aplicações de captura e acesso de atividades humanas. Desenvolvidos para apoiar serviços dedicados de captura, de armazenamento e de processamento de informações de contexto, esforços como Context Fabric, EventHeap e Gaia não exploram a plataforma de Web Services como alternativa para o tratamento da heterogeneidade entre aplicações; além disso, as dimensões de contexto propostas na literatura não são apoiadas diretamente. Este trabalho teve como propósito investigar e formalizar um conjunto de operações para armazenamento e recuperação de informações de contexto com base nas dimensões propostas na literatura: who, when, where, what, why e how. Como resultado, desenvolveu-se um núcleo de operações, denominado Context Kernel, implementado como um Web Service. Neste trabalho sao apresentadas a modelagem do Context Kernel, as especificações dos serviços em WSDL, a linguagem padrão para descrição de Web Services, e das APIs implementadas para acesso ao Context Kernel por aplicações Java e PHP.

Ano

2022-12-06T14:47:11Z

Creators

Carlos Roberto Esperança de Arruda Junior

Protótipo Evolutivo de um Sistema de Modelagem de Sólidos

Muitas vezes, a construção de modelos de objetos ou processos é não apenas conveniente mas também necessária para que se possa analisar e manipular processos ou objetos reais de maneira mais fácil e barata. Existem vários tipos de modelos, entre os quais os modelos computacionais. Estes são, geralmente, criados utilizando sistemas de modelagem interativos, como os sistemas de modelagem de sólidos, intensamente utilizados nas áreas de projeto e construção de peças, aviões, automóveis, etc... Esses modeladores podem utilizar várias técnicas de. modelagem geométrica para descrever um objeto, como os modelos por fronteira (\"Boundary Representation\", BRep) e os modelos CSG (\"Constructive Solid Geometry\"). Este trabalho trata da técnica de modelagem por fronteira e relata a construção de um primeiro protótipo do Sistema de Modelagem de Sólidos Tridimensionais (SMS), que está sendo desenvolvido no ICMSC-USP, São Carlos. Esse protótipo é constituído de um subsistema gerenciador de representações, responsável pelo acesso e atualização da representação B-Rep (interna), e uma interface simples contendo algumas operações de descrição de objetos. O sistema teve seu desenvolvimento baseado no \"Paradigma da Orientação a Objetos\". Uma discussão sobre modelagem de sólidos e modeladores de sólidos é apresentada, juntamente com a descrição do projeto orientado a objetos e a implementação do protótipo.

Ano

2022-12-06T14:47:11Z

Creators

Luis Paulo Barbour Scott

UM EDITOR GENÉRICO SENSÍVEL À SINTAXE ARMAZENADA NUMA BASE DE DADOS

Este trabalho descreve a implementação do Protótipo de um Editor Sensível à Sintaxe (PEGSS). Nesta versão o Editor oferece a edição sensível à sintaxe para um subconjunto das linguagens Pascal, C e FORTRAN. Programas sintaticamente corretos são construídos através da requisição pelo usuário de gabaritos que correspondem aos comandos e pela descrição das expressões. É proposto um modo único de representação interna dos programas editados sob o contexto desse Editor. Assim, um conjunto de ferramentas pode beneficiar-se dessa forma de representação. Por exemplo, é permitido que programas escritos em um linguagem sejam obtidos em qualquer das outras linguagens contempladas pelo Editor. Além disso, pode ser efetuada a adição de novas linguagens pertencentes a um mesmo paradigma, pois a construção dessa representação interna prevê esta extensão. Neste trabalho são apresentadas as caracteristicas do PEGSS: a estrutura utilizada para a exibição dos seus programas, a representação interna destes programas, a manipulação das expressões e, finalmente, como foram especificados e implementados os módulos principais que compõem este Sistema.

Ano

2022-12-06T14:47:11Z

Creators

Carlos Roberto Valêncio

UM SISTEMA BASEADO EM CONHECIMENTO PARA AUXILIAR NO PROCESSO DE ALOCAÇÃO DE RINS

O objetivo deste trabalho é o de apresentar o desenvolvimento e a implementação de um sistema para auxílio, aos usuários da área médica, no processo de alocação de rins a serem transplantados em pacientes com problemas renais. A idéia básica do sistema desenvolvido é a de utilizar um Sistema de Base de Dados para manter e gerenciar as informações relevantes para o processo de alocação de rins\' e um Sistema Baseado em Conhecimento responsável especificamente pelo processo de alocação. Durante a fase de desenvolvimento, contou-se com o auxilio do especialista no domínio de transplantes renais, Prof. Dr. Agenor Ferraz, médico e docente do Hospital das Clínicas da Faculdade de Medicina de Ribeirão Preto - USP. Buscou-se, também, utilizar as normas definidas pelo Protocolo São Paulo Interior Transplante.

Ano

2022-12-06T14:47:11Z

Creators

José Augusto Baranauskas

NÚCLEO BÁSICO PARA UM SERVIDOR DE NOMES BASEADOS EM ATRIBUTOS

O projeto e a implementação de Servidores de Nomes constituem fases importantes na construção de Sistemas Computacionais Distribuídos, pois esses módulos são encarregados de armazenar e fornecer informações para todo o sistema, garantindo seu funcionamento correto e seguro. Este trabalho apresenta um estudo detalhado sobre o serviço de nomeação, discutindo a maneira como é oferecido através dos servidores de nomes presentes na maioria dos ambientes computacionais distribuídos baseados em rede local. Ênfase especial é dada à descrição da estrutura e detalhes de implementação do \"SENA\" (SErvidor de Nomes baseado em Atributos), o qual se baseia no Paradigma de Nomeação Baseado em Atributos. Essa abordagem, adicionada ao ambiente de implementação, possibilita a obtenção de um servidor de nomes abrangente, que permite o gerenciamento de espaços de nomes em ambientes computacionais heterogêneos, sendo também capaz de atender solicitações tanto de outros módulos do sistema distribuído, como de usuários, através de um conjunto de funções, a partir das quais novas funções podem ser criadas pelos próprios usuários. As características apresentadas pelo SENA, levam à conclusão de que servidores de nomes baseados em atributos constituem uma alternativa extremamente atrativa na integração de espaços de nomes independentes, permitindo também a participação dos usuários na criação de serviços de nomeação personalizados. Portanto, um servidor de nomes baseado em atributos constitue um núcleo básico sobre o qual serviços de nomeação especializados podem ser construídos.

Ano

2022-12-06T14:47:11Z

Creators

Omar Heriberto Santos Valasco

PROBLEMA DE CORTE BIDIMENSIONAL GUILHOTINADO NÂO-ESTAGIADO E IRRESTRITO

O objetivo geral deste estudo é o de trabalhar o problema de corte bidimensional guilhotinado irrestrito e no-estagiado. Para tanto, foram revistas regras e heurísticas a serem utilizadas e foi sugerida uma combinação da regra de simetria com a heurística de geraçgo dos pontos de cortes possíveis. Uma abordagem em grafo-E/OU, com a utilizaçgo de uma estratégia híbrida, que combina as técnicas \"Hill-Climbing\" e \"Depth-First\" para a busca em grafo, foi utilizada para a resolução do problema. Finalmente, foram comparados os resultados obtidos com resultados apresentados na literatura.

Ano

2022-12-06T14:47:11Z

Creators

Silvana Aparecida Borsetti Gregorio Vidotti

EXECUÇÃO PROGRAMADA DE STATECHARTS

Sistemas Reativos podem ser definidos como sistemas que interagem direta ou indiretamente com o ambiente, recebendo e emitindo estímulos do mesmo, e que devem produzir os resultados corretos dentro de intervalos de tempo previamente especificados. Várias técnicas gráficas existem para modelar sistemas reativos, podendo-se citar Máquinas de Estados Finitos, Redes de Petri e Statecharts. Esta última tem se mostrado eficaz na especificação de sistemas reativos, pois além de possuir uma notação visual concisa e intuitiva, ainda possui sintaxe e semântica definidas formalmente. Este trabalho trata de uma técnica de validação de modelos, denominada \"Execução Programada\" e de sua integração ao ambiente Statechart Simulator (StatSim), que é um ambiente composto de ferramentas para edição e simulação de statecharts. Na Execução Programada, o modelo comportamental do sistema sob desenvolvimento é simulado a partir de eventos gerados através de distribuições probabilísticas e é controlado por um programa que indica o que deve ser feito em cada passo. Como resultado final, além da simulação dinâmica visual, dois relatórios são fornecidos ao usuário: um contendo análises estatísticas da execução e outro contendo o registro de todas as configurações atingidas, passo a passo. Uma revisão de ambientes e ferramentas para especificação de sistemas reativos é apresentada, enfatizando-se a sua capacidade para simulação dos modelos criados. Como aspecto central do trabalho, uma linguagem para controle da execução programada , denominada Linguagem de Controle de Execução (LCE), é proposta. A LCE é, inicialmente, discutida informalmente, para depois ser discutida formalmente. Em seguida, mostra-se a implementação da LCE e sua integração ao ambiente StatSim, dentro do Módulo de Execução Programada (MEP). Para ilustrar o funcionamento da LCE alguns exemplos são apresentados e discutidos.

Ano

2022-12-06T14:47:11Z

Creators

Joao Wagner Lima Cangussu

UTILIZAÇÃO DE DISCO ÓTICO (WORM) COMO MEDIDA SEGURANÇA DE ARQUIVOS EM REDES LOCAIS DE COMPUTADORES

Esta dissertação apresenta um sistema auxiliar de arquivos baseado em disco WORM, desenvolvido com o propósito de proporcionar aos servidores de arquivos de um ambiente computacional distribuído, procedimentos para transferência de arquivos originalmente armazenados em disco magnético, para disco WORM. O mecanismo proposto é transparente ao usuário e tem como objetivos aumentar tanto a segurança quanto a disponibilidade de espaço no servidor de arquivos. Estes objetivos são atingidos através da replicação de arquivos importantes e da transferência de arquivos de baixa probabilidade de acesso. Considerando-se os aspectos de segurança e de disponibilidade de espaço, três tipos de arquivos para gravação em WORM são propostos: crítico (quando o usuário necessita da disponibilidade do arquivo mesmo em presença de falhas), normal (qualquer arquivo regular do sistema) e morto (alguns arquivos eliminados do sistema). O sistema auxiliar de arquivos WORM foi implementado utilizando-se recursos da linguagem de programação C e do sistema operacional MINIX, simulando- se o disco ótico WORM através de disquete.

Ano

2022-12-06T14:47:11Z

Creators

Luiz Antonio Framartino Bezerra

Interactive keyterm-based document clustering and visualization via neural language models

Interactive data clustering techniques put the user in the clustering algorithm loop, allowing not only better clustering quality, but also supporting the knowledge discovery task in large textual corpora. The keyterm guided approach is arguably intuitive, allowing the user to interact with representative words instead of interacting with a large volume of full-length documents or complex topic models. More than making the clustering algorithm adjustable with little user-effort, the visual interactive clustering approach allows the user to focus on exploring the corpus as an incremental task. After each interaction, the user can obtain new information about the corpus, and expresses it as feedback to the clustering algorithm. The visual analytics system Vis-Kt presents itself as an interactive keyterm-based document clustering system, embedded with techniques that overcome the state-of-the-art ones, such as Latent Dirichlet Allocation and the Non-negative Matrix Factorization. With a user-guided approach, Vis-Kt allows the user to draw her insights into the corpus by describing document clusters with a small set of significative terms. However, Vis-Kt and its underlying clustering algorithms depend on the Bag-of-Words model, which has several limitations concerning the information extractions scalability, the process incrementality, and the datas semantic representation. In order to overcome the limitations inherent to the Bag-of-Words model, we propose an update for the keyterm-based representation model to a machine learning approach based on neural language models. Such a model can extract semantic information and relationships from the words that are included in the corpus. This projects main contribution is a novel interactive document clustering algorithm guided by keyterms and based on neural language models. This approach shows a significant improvement compared to the baseline algorithms, considered state-of-the-art. The proposed clustering algorithm allows Vis-Kt to work incrementally, without the need to repeat the entire learning and clustering processes from the beginning. This makes the system suitable for analyzing text streams. In order to contribute to the task of knowledge discovery and to support its incremental aspect, a visual component based on the Sankey diagram was developed to depict the clustering membership changes throughout the clustering loop after each interaction with the corpus. A set of quantitative experiments on publicly available text datasets was performed to evaluate the obtained clustering results. The results reported in this work show that, in most of the experimented cases, the proposed algorithm presents a significant improvement in clustering quality measures in comparison with the baseline algorithms. In all cases, the proposed algorithm showed a gain in processing time, especially in the largest datasets. We also report two usage scenarios to qualitatively evaluate the proposed visual component.

Ano

2022-12-06T14:47:11Z

Creators

Eric Macedo Cabral

A Two-Stage Particle Competition Model for Unbalanced Community Detection in Complex Networks

The usage of Complex Networks has proved to be an excellent tool in reveling prevalent information from complex systems due to its ability to describe spatial, functional, and topological relations among the data. One inherent characteristic of Complex Networks, which is an excellent source of information, is its community structurecommonly defined as a set of nodes more densely connected than to other nodes of the networks. In order to extract this information, many techniques have been proposed. One interesting technique is the Particle Competition method, which is a bio-inspired approach in which a set of particles are inserted into the network and must compete with themselves to capture as many nodes as possible. Competition, here represented as a stochastic dynamic system that controls the particles, is a behavior widely encountered in nature when there is a shortage of resources, such as water, food, or matesthe nodes of the graph are the limited resources each particle must conquer. However, unbalanced communities commonly appear in real complex networks. Although many community detection techniques have been developed, and some of them possess a certain degree of tolerance to unbalance, there is still lacking an explicit and efficient mechanism to treat this problem. In this document, we proposed a Two-Stage Particle Competition model to detect unbalanced communities. At the first stage, named Competition, the particles compete with themselves to occupy as many nodes as possible. At the second stage, a diffusion-like regularization mechanism is introduced to determine the dominance level of each particle at a neighborhood of each node. The two stages work alternatively until the regularization process converges. In the original Particle Competition model, all particles have the same behavior; therefore, there is no way to correctly occupy the communities with different sizes or structures by the particles. In the proposed model, the regularization mechanism makes each particle to have a different behavior according to the network structure. Consequently, communities with different sizes or structures can be correctly detected by the particles. Computer simulations show promising results of the proposed model. Moreover, the regularization mechanism improves both the accuracy and computational speed of the method as fewer iterations are required until convergence when compared to previous Particle Competition methods

Ano

2022-12-06T14:47:11Z

Creators

Luan Vinicius de Carvalho Martins

FÓRMULAS DE QUADRATURA DE CHEBYSHEV E DO TIPO CHEBYSHEV

O objetivo deste trabalho é estudar e apresentar funções pesos que admitem fórmulas de quadratura de Chebyshev e do tipo Chebyshev. Serão apresentados, além de algumas contribuições interessantes sobre esse assunto, métodos matemáticos existentes para a construção de fórmulas e a verificação da não existência das mesmas. Apresentamos, ainda, os estudos feitos sobre as fórmulas de quadratura do tipo Chebyshev, com w(x) = 1.

Ano

2022-12-06T14:47:11Z

Creators

Marisa Veiga Capela

ABORDAGENS INTERATIVAS PARA O PROBLEMA DE CORTES DE PEÇAS IRREGULARES BIDIMENSIONAIS

O problema de cortes irregulares consiste em determinar a melhor maneira de cortar placas retangulares para produzir peças irregulares. Cada peça deve ser produzida para atender a uma demanda pré-definida. A perda total de material deve ser minimizada. A estratégia de resolução consiste em agrupar peças irregulares em módulos retangulares e definir padrões de corte regulares. A partir de então, define-se um padrão de corte irregular. O modelo de geração de colunas de Gilmore e Gomory foi utilizado.

Ano

2022-12-06T14:47:11Z

Creators

Maxwell Adolpho Orlandi

UTILIZAÇÃO DA TRANSFORMADA KARHUMEM-LOEVE EM SÍNTESE DE TONS MUSICAIS

Sinais podem ser amostrados, armazenados e reproduzidos por computadores digitais. Adicionalmente, sinais podem ser analisados de modo que formas comportadas de sua representação possam ser extraídas, economizando o espaço de memória necessário para o armazenamento. A transformada de Fourier tem sido tradicionalmente utilizada para este fim. Este trabalho trata da utilização da transformada Karhunen-Loeve como método alternativo de representação de tons musicais, possibilitando grande economia de recursos computacionais comparada com a transformada de Fourier.

Ano

2022-12-06T14:47:11Z

Creators

João Fernando Marar