Repositório RCAAP
Circuitos hamiltonianos em hipergrafos e densidades de subpermutações
O estudo do comportamento assintótico de densidades de algumas subestruturas é uma das principais áreas de estudos em combinatória. Na Teoria das Permutações, fixadas permutações ?1 e ?2 e um inteiro n > 0, estamos interessados em estudar o comportamento das densidades de ?1 e ?2 na família de permutações de tamanho n. Assim, existem duas direções naturais que podemos seguir. Na primeira direção, estamos interessados em achar a permutação de tamanho n que maximiza a densidade das permutações ?1 e ?2 simultaneamente. Para n suficientemente grande, explicitamos a densidade máxima que uma família de permutações podem assumir dentre todas as permutações de tamanho n. Na segunda direção, estamos interessados em achar a permutação de tamanho n que minimiza a densidade de ?1 e ?2 simultaneamente. Quando ?1 é a permutação identidade com k elementos e ?2 é a permutação reversa com l elementos, Myers conjecturou que o mínimo é atingido quando tomamos o mínimo dentre as permutações que não possuem a ocorrência de ?1 ou ?2. Mostramos que se restringirmos o espaço de busca somente ao conjunto de permutações em camadas, então a Conjectura de Myers é verdadeira. Por outro lado, na Teoria dos Grafos, o problema de encontrar um circuito Hamiltoniano é um problema NP-completo clássico e está entre os 21 problemas Karp. Dessa forma, uma abordagem comum na literatura para atacar esse problema é encontrar condições que um grafo deve satisfazer e que garantem a existência de um circuito Hamiltoniano em tal grafo. O célebre resultado de Dirac afirma que se um grafo G de ordem n possui grau mínimo pelo menos n/2, então G possui um circuito Hamiltoniano. Seguindo a linha de Dirac, mostramos que, dados inteiros 1 6 l 6 k/2 e ? > 0 existe um inteiro n0 > 0 tal que, se um hipergrafo k-uniforme H de ordem n satisfaz ?k-2(H) > ((4(k - l) - 1)/(4(k - l)2) + ?) (n 2), então H possui um l-circuito Hamiltoniano.
2016
Antonio Josefran de Oliveira Bastos
Performance prediction of application executed on GPUs using a simple analytical model and machine learning techniques
The parallel and distributed platforms of High Performance Computing available today have became more and more heterogeneous (CPUs, GPUs, FPGAs, etc). Graphics Processing Units (GPU) are specialized co-processor to accelerate and improve the performance of parallel vector operations. GPUs have a high degree of parallelism and can execute thousands or millions of threads concurrently and hide the latency of the scheduler. GPUs have a deep hierarchical memory of different types as well as different configurations of these memories. Performance prediction of applications executed on these devices is a great challenge and is essential for the efficient use of resources in machines with these co-processors. There are different approaches for these predictions, such as analytical modeling and machine learning techniques. In this thesis, we present an analysis and characterization of the performance of applications executed on GPUs. We propose a simple and intuitive BSP-based model for predicting the CUDA application execution times on different GPUs. The model is based on the number of computations and memory accesses of the GPU, with additional information on cache usage obtained from profiling. We also compare three different Machine Learning (ML) approaches: Linear Regression, Support Vector Machines and Random Forests with BSP-based analytical model. This comparison is made in two contexts, first, data input or features for ML techniques were the same than analytical model, and, second, using a process of feature extraction, using correlation analysis and hierarchical clustering. We show that GPU applications that scale regularly can be predicted with simple analytical models, and an adjusting parameter. This parameter can be used to predict these applications in other GPUs. We also demonstrate that ML approaches provide reasonable predictions for different cases and ML techniques required no detailed knowledge of application code, hardware characteristics or explicit modeling. Consequently, whenever a large data set with information about similar applications are available or it can be created, ML techniques can be useful for deploying automated on-line performance prediction for scheduling applications on heterogeneous architectures with GPUs.
2018
Marcos Tulio Amarís González
PAWEB - Uma plataforma para desenvolvimento de aplicativos web utilizando o modelo de atores
Existem várias linguagens e plataformas que permitem a programação baseada no modelo de atores, uma solução elegante para a programação concorrente proposta há algumas décadas. Segundo esse modelo, implementa-se o programa na forma de uma série de agentes que são executados em paralelo e se comunicam entre si somente por meio da troca de mensagens, sem a necessidade de memória compartilhada ou estruturas tradicionais de sincronização como semáforos e mutexes. Uma das áreas nas quais esse modelo seria particularmente adequado é a programação de aplicações web, isto é, aplicações cujas lógicas de negócios e de dados residem num servidor e que são acessadas pelo usuário por intermédio de um navegador. Porém, existem muitos obstáculos ao desenvolvimento de aplicações desse tipo, entre eles a falta de linguagens e ferramentas que permitam integrar tanto o servidor quanto o cliente (navegador) no modelo de atores, as dificuldades de conversões de dados que se fazem necessárias quando o servidor e o cliente são desenvolvidos em linguagens diferentes, e a necessidade de contornar as dificuldades inerentes aos detalhes do protocolo de comunicação (HTTP). O PAWEB é uma proposta de uma plataforma para o desenvolvimento e execução de aplicações web que fornece a infraestrutura necessária para que tanto o lado cliente quanto o lado servidor do aplicativo hospedado possam ser escritos numa mesma linguagem (Python), e possam criar e gerenciar atores que trocam mensagens entre si,tanto local quanto remotamente, de maneira transparente e sem a necessidade de implementar conversões de dados ou outros detalhes de baixo nível.
2012
Bruno Takahashi Carvalhas de Oliveira
Planejamento instrucional automatizado em aprendizagem colaborativa com suporte computacional utilizando planejamento hierárquico
Em Aprendizagem Colaborativa com Suporte Computacional (ACSC), o planejamento instrucional consiste em obter uma sequência de interações instrucionais que definem o conteúdo instrucional como a representação do que deve ser ensinado e da forma em que os participantes devem interagir, denominada informação de planejamento instrucional. O desenvolvimento, adaptação e personalização de unidades concisas de estudo compostas por recursos instrucionais e informação de planejamento instrucional, denominadas unidades de aprendizagem, envolve um processo de planejamento instrucional complexo que consome muito tempo e apresenta um conjunto de tarefas repetitivas a serem efetuadas pelos projetistas instrucionais. Neste trabalho, o planejamento instrucional em ACSC é modelado como um problema de planejamento hierárquico para dar suporte ao desenvolvimento, adaptação e personalização das unidades de aprendizagem de forma automática. A modelagem consiste na representação do domínio a ser ensinado, das caraterísticas dos estudantes e das estratégias de planejamento instrucional na linguagem do sistema JSHOP2ip, um sistema de planejamento hierárquico desenvolvido para dar solução aos problemas específicos de planejamento instrucional. Para avaliar a modelagem proposta, efetuamos o desenvolvimento de um gerador de cursos colaborativos como um serviço Web usando a modelagem proposta e o sistema JSHOP2ip, no qual foram avaliados o desempenho, a modelagem das estratégias e a saída do planejador. Além disso, para demonstrar a viabilidade do modelo proposto em situações reais, efetuamos o desenvolvimento de uma ferramenta de autoria de unidades de aprendizagem que emprega o gerador de cursos colaborativos.
Funcionalidades colaborativas no compartilhamento de conteúdo em redes sociais na Web 2.0: Uma engenharia de domínio baseada no modelo 3C de colaboração
A Web 2.0 alterou o desenvolvimento de aplicações para internet. Contudo, os pesquisadores e desenvolvedores ainda replicam as ideias uns dos outros com pouco reuso. Esse cenário ilustra a necessidade de uma engenharia de domínio, na qual as similaridades e as variabilidades de uma família de aplicações são identificadas e documentadas, com a finalidade de obter o reuso dos componentes desenvolvidos. Neste trabalho, e feita uma engenharia de domínio para Redes Sociais na Web 2.0, com o foco nas funcionalidades colaborativas relativas ao compartilhamento de conteúdo. Como método, e utilizado o FODA (Feature Oriented Domain Analysis) adaptado com o modelo 3C de colaboração para classificar e padrões para interação mediada por computador para descrever as funcionalidades colaborativas. No modelo 3C, a colaboração e analisada a partir da comunicação, coordenação e cooperacao, e padroes descrevem e detalham o contexto de uso das funcionalidades levantadas. Para a implementação das funcionalidades colaborativas comuns nessas aplicações, são desenvolvidos componentes de software compatíveis com a plataforma Groupware Workbench. Um experimento foi realizado para avaliar os artefatos gerados na engenharia de domínio e um estudo de caso para avaliar a aplicabilidade e abrangência dos componentes desenvolvidos em um contexto real, a rede social para compartilhamento de imagens de arquitetura, chamada Arquigrafia Brasil. Os experimentos e o estudo de caso indicaram que os artefatos gerados são reusáveis, uteis e abrangem boa parte das funcionalidades presentes nas redes sociais atuais.
2010
Lucas Santos de Oliveira
Análise de componentes principais em data warehouses
A técnica de Análise de Componentes Principais (PCA) tem como objetivo principal a descrição da variância e covariância entre um conjunto de variáveis. Essa técnica é utilizada para mitigar redundâncias no conjunto de variáveis e para redução de dimensionalidade em várias aplicações nas áreas científica, tecnológica e administrativa. Por outro lado, o modelo de dados multidimensionais é composto por relações de fato e dimensões (tabelas) que descrevem um evento usando métricas e a relação entre suas dimensões. No entanto, o volume de dados armazenados e a complexidade de suas dimensões geralmente envolvidas neste modelo, especialmente no ambiente de data warehouse, tornam a tarefa de interpretar a correlação entre dimensões muito difícil e às vezes impraticável. Neste trabalho, propomos o desenvolvimento de uma Interface de Programação de Aplicação (API) para a aplicação da PCA no modelo de dados multidimensionais para facilitar a tarefa de caracterização e redução de dimensionalidade, integrando essa técnica com ambientes de Data Warehouses. Para verificar a eficácia desta API, um estudo de caso foi realizado utilizando dados de produção científica e suas citações obtidas das Plataformas Lattes, Web of Science, Google Scholar e Scopus, fornecidas pela Superintendência de Tecnologia da Informação da Universidade de São Paulo.
Melhorando o ataque de reação contra o QC-MDPC McEliece
O QC-MDPC McEliece foi considerado um dos mais promissores esquemas criptográficos de chave pública que oferecem segurança contra ataques por computadores quânticos. O tamanho das chaves públicas do QC-MDPC McEliece é competitivo com o das chaves do RSA, e o esquema tem uma redução de segurança aparentemente forte. Por três anos, o esquema não sofreu ataques críticos, até que na Asiacrypt de 2016 Guo, Johansson, e Stankovski mostraram um ataque de reação contra o QC-MDPC McEliece que explora um aspecto não considerado em sua redução de segurança: a probabilidade de o algoritmo de decriptação falhar é menor quando a chave secreta e o vetor usado para encriptar a mensagem compartilham certas propriedades, chamadas de espectros. Dessa forma, um atacante pode, ao detectar falhas de decriptação, obter informação sobre o espectro, que será usada para reconstruir a chave secreta. Guo et al. apresentaram um algoritmo para a reconstrução da chave a partir do espectro recuperado, para o qual é possível apontar três problemas. O primeiro é que seu algoritmo não é eficiente quando o espectro da chave não foi recuperado quase completamente, o que resulta em o atacante ter que enviar um grande número de testes de decriptação à portadora da chave secreta. O segundo problema é que o desempenho de seu algoritmo não escala bem para níveis de segurança mais altos. O terceiro e último problema é que, por ser baseado numa busca em profundidade, seu algoritmo não pode ser paralelizado trivialmente. Para aumentar a eficiência do ataque, dois novos algoritmos de reconstrução são propostos neste trabalho. Estes algoritmos são mais eficientes, usam menos informação sobre a chave secreta, e podem ser paralelizados trivialmente. O primeiro algoritmo é probabilístico e tem complexidade assintótica ligeiramente melhor do que a do original. Entretanto, o desempenho do algoritmo probabilístico piora rapidamente, embora mais lentamente do que o algoritmo de Guo et al., conforme a quantidade de informação sobre o espectro diminui. O segundo algoritmo explora uma relação linear entre os blocos da chave secreta. Este é mais eficiente, tanto assintoticamente quanto na prática, que os dois outros algoritmos, e é eficiente mesmo com 50% menos informação sobre o espectro do que o necessário para o algoritmo original. Isso permite que o atacante encontre a chave secreta fazendo apenas em torno de 20% do número de testes necessários pelo algoritmo de Guo\'s et al., considerando-se o nível de segurança de 80 bits. O desempenho de ambos os algoritmos são analisados e comparados com o do algoritmo original, e as análises são feitas tanto para a complexidade teórica quanto para o desempenho na prática, considerando a implementação dos algoritmos em linguagem C.
2017
Thales Areco Bandiera Paiva
Proposta de arquitetura para federações de nuvens computacionais acadêmicas
A computação em nuvem tem recebido um grande destaque, ao propor um novo e eficiente mecanismo para disponibilizar recursos computacionais. Dos investimentos cada vez maiores nessa plataforma, inclusive pela academia, surge a oportunidade de compartilhar estes recursos computacionais entre diferentes instituições. As grades computacionais são um mecanismo bem estabelecido para o compartilhamento de alguns tipos de recursos computacionais. Através do entendimento de como isso é feito nestas estruturas, esse trabalho avalia as soluções existentes e propõe um arquitetura alternativa que permite a criação das federações de nuvens computacionais.
2014
Gabriel Araujo von Winckler
\"Repensando os commons na comunicação científica\"
Recentemente estudiosos como Benkler, Lessig, Boyle, Hess e Ostrom retomaram o uso do conceito de commons, mas agora relacionado à informação em geral ou à informação científica. Nesse trabalho, nós lançamos mão desse termo para destacar o caráter cooperativo da pesquisa científica, a importância da transparência e neutralidade no acesso ao commons da Ciência e a natureza anti-rival da informação científica. O conceito de commons nos é muito útil para focar todo o conjunto dos artigos científicos já publicados, quer estejam na forma impressa ou na digital. Ainda permite um estudo através de prismas multidisciplinares e, finalmente, enfatiza a dinâmica das comunidades científicos como um todo. Em qualquer commons de informação, quanto maior a distribuição do conhecimento, mais dinâmico e eficiente é o processo de evolução do conhecimento. A tecnologia da imprensa tem desempenhado um papel fundamental na divulgação de informação e o seu surgimento marcou uma revolução no conhecimento e na cultura da nossa civilização. A tecnologia digital tem se mostrado mais eficiente ainda, uma vez que a natureza da sua implementação em bits se aproxima mais da natureza anti-rival das idéias do que qualquer outra tecnologia hoje empregada para preservação e distribuição de informação. Em nosso estudo, constatamos que o commons da Ciência pode ser enormemente enriquecido através de práticas cooperativas e de acesso aberto na publicação da academia. Percebemos também que o uso da tecnologia digital no commons científico, especialmente na publicação dos resultados da pesquisa, aumenta grandemente a distribuição do conhecimento acadêmico, suas oportunidades de escrutínio e validação, a dinâmica de amadurecimento das idéias científicas e, conseqüentemente, pode tornar o desenvolvimento da Ciência mais veloz e eficiente. No entanto, o meio digital tem sido utilizado tanto para criar um ambiente de livre circulação de idéias quanto para controlá-las. Por um lado, código computacional tem sido implementado para garantir o acesso apenas aos que pagam pelos altos preços das revistas científicas. Por outro lado, a publicação de revistas on-line de acesso aberto e outras formas alternativas de disseminação de conteúdo científico têm se proliferado. Ainda, o decrescente orçamento das bibliotecas, o crescente preço das assinaturas de revistas científicas e as crescentes restrições aplicadas pelas leis de propriedade intelectual têm minado a natureza livre das idéias científicas e colocado a Comunicação Científica numa crise. Estamos no meio de uma transição de paradigmas quanto à publicação dos resultados de pesquisa científica, onde aspectos legais, tecnológicos e sócio-econômicos estão em renegociação. À luz das oportunidades da tecnologia digital e da publicação em acesso aberto, as formas de disseminação dos resultados da pesquisa científica presentemente estabelecidas tem sido repensadas. Inserimos essa análise num contexto maior, o paradigma da Comunicação Científica. Isso nos auxilia a fazer um estudo mais abrangente das complexas questões envolvendo nosso tema, analisando os aspectos tecnológicos, legais e sócio-econômicos de uma possível transição para o modelo de publicação de acesso aberto. Tão grandes são as oportunidades desse novo modelo que ele tem agregado em torno de si iniciativas sócio-acadêmicas conhecidas por Movimento de Acesso Aberto à literatura científica. Atualmente, há muitos testes e modelos de publicação dessa literatura. Em especial, nesse trabalho focamos o modelo de acesso aberto aos resultados científicos, suas vantagens, as dificuldades para seu estabelecimento e como ele tem se desenvolvido. Analisamos a viabilidade de criação de um ecossistema de bibliotecas digitais de acesso aberto, especializadas em cada ramo da Ciência. Nossos modelos de partida baseiam-se em alguns aspectos de serviços como arXiv, CiteSeer e Google Scholar. Entre as muitas conclusões desse estudo, constatamos que bibliotecas desse tipo aumentam sobremaneira a dinâmica de circulação, geração, transformação e renovação do conhecimento científico. Assim, o processo de produção de recursos no commons científico pode se tornar muito mais eficiente.
Representações retangulares de grafos planares
Uma representação retangular de um grafo plano G é uma representação de G, onde cada vértice é desenhado como um retângulo de modo que dois retângulos devem compartilhar algum segmento de seus lados se e somente se existe uma aresta em G entre os vértices correspondentes aos retângulos. Ainda, a representação de G deve formar um retângulo e não deve existir buracos, ou seja, toda região interna deve corresponder a algum vértice de G. Um desenho retangular de um grafo plano H é um desenho de H, onde todas as arestas são desenhadas como segmentos horizontais ou verticais. Ainda, todas as faces internas são retângulos e as arestas que incidem na face externa também formam um retângulo. Nesta dissertação, apresentamos os principais trabalhos existentes na literatura para problemas associados à representação retangular. Também apresentamos resultados para problemas associados ao desenho retangular. Por fim, apresentamos o algoritmo que desenvolvemos para determinar as coordenadas dos vértices de um desenho retangular quando a orientação das arestas já foram determinadas.
2012
Guilherme Puglia Assunção
Algoritmos baseados em atenção neural para a automação da classicação multirrótulo de acórdãos jurídicos
No Brasil e em vários outros países, decisões de tribunais superiores criam jurisprudência e podem ser utilizadas na resolução de casos semelhantes. Os acórdãos, textos que registram tais decisões, contam com uma classificação multicategoria e multirrótulo chamada de verbetação, realizada manualmente com a intenção de que tais documentos possam ser facilmente buscados e recuperados. A literatura da área já identificou vários problemas na elaboração dessas verbetações; concomitantemente, algoritmos neurais de linguística computacional baseados em atenção, como o Transformer e o BERT, têm ganhado destaque ao permitir que a resolução automática de problemas linguísticos atinja patamares nunca antes alcançados, lançando questões sobre seus limites, potencial e aplicabilidade. O trabalho de pesquisa aqui apresentado consiste num estudo inicial do uso de algoritmos baseados em atenção para a automação da verbetação de acórdãos em português, com o intuito de lançar caminhos para a resolução dos problemas listados na literatura e de agregar conhecimento do escopo e funcionalidade dessa família de métodos. Para tal, utilizamos dados do Projeto Kollemata como base para implementar e treinar versões multicategoria e multirrótulo de diversos modelos BERT, com o intuito de realizar a verbetação de acórdãos de maneira automática. Esse processo constituiu-se de três etapas: a construção de um córpus processável a partir dos dados do Kollemata e a consequente análise exploratória desse córpus com o intuito de mapear as propriedades dos dados a serem utilizados; a adequação ontológica e taxonômica do sistema de classes do córpus com base nos resultados obtidos dessa análise, de maneira a tornar a classificação computacionalmente viável; a implementação de uma versão multicategoria e multirrótulo do BERT e seu treinamento com o córpus adequado, sob diversos parâmetros e usando diferentes modelos BERT de interesse, de maneira a avaliar o comportamento e limites das médias da Medida-F1 e outros índices de performance. Obtivemos, no melhor caso, 72% para a micro-média da medida-F1 e 71% para sua macro-média, constituindo ganhos da ordem de 30% ou mais em relação aos baselines estatísticos utilizados. Além disso, encontramos uma família ótima de parâmetros para essa tarefa, condizente com valores ótimos obtidos para tarefas distintas e observamos uma série de propriedades interessantes da evolução das métricas de performance em função de diferentes parâmetros. Registramos, também, melhor performance dos modelos maiores e pré-treinados com dados em português, em comparação com modelos menores e multilinguais. Entretanto, essa vantagem é pequena, o que indica a possibilidade da utilização de modelos menores e multilinguais para essa tarefa em específico, sem perda significativa de qualidade. Uma análise cuidadosa desse e de outros resultados auxiliares aqui apresentados, também nos levou a concluir que a principal barreira na obtenção de melhores resultados de performance é a forma como os dados foram classificados e organizados, indicando esse como principal aspecto de melhora a ser implementado em trabalhos futuros.
Homomorfismos de grafos
Homomorfismos de grafos são funções do conjunto de vértices de um grafo no conjunto de vértices de outro grafo que preservam adjacências. O estudo de homomorfismos de grafos é bastante abrangente, existindo muitas linhas de pesquisa sobre esse tópico. Nesta dissertação, apresentaremos resultados sobre homomorfismos de grafos relacionados a pseudo-aleatoriedade, convergência de seqüência de grafos e matrizes de conexão de invariantes de grafos. Esta linha tem se mostrado muito rica, não apenas pelos seus resultados, como também pelas técnicas utilizadas nas demonstrações. Em especial, destacamos a diversidade das ferramentas matemáticas que são usadas, que incluem resultados clássicos de álgebra, probabilidade e análise.
Método beam search aplicado ao problema de escalonamento de tarefas flexível
O Job Shop Scheduling Problem é um problema NP-Difícil que chama a atenção de muitos pesquisadores devido seu desafio matemático e sua aplicabilidade em contextos reais. Geralmente, principalmente em cenários próximos aos de fábricas e indústrias, obter um escalonamento ótimo por meio de métodos computacionais exatos implica em um alto desprendimento de tempo. Em contrapartida, devido às exigências de um mercado cada vez mais competitivo, as decisões de onde, como, quando e com o que produzir devem ser tomadas rapidamente. O presente trabalho propõe o desenvolvimento de um método heurístico Beam Search para solucionar o Job Shop Scheduling Problem e o Flexible Job Shop Scheduling Problem. Para isso, inicialmente um algoritmo do tipo list scheduling é definido e então o método Beam Search é construído baseado neste algoritmo. Os métodos propostos foram avaliados em diferentes níveis de complexidade utilizando instâncias da literatura que retratam diferentes cenários de planejamento. Em linhas gerais, as soluções encontradas se mostraram bastante competitivas quando comparadas a outras soluções da literatura.
2013
José Eurípedes Ferreira de Jesus Filho
What happens when the bazaar grows: a comprehensive study on the contemporary Linux kernel development model
The popularity and consolidation of many Free/Libre Open-Source Software (FLOSS) projects in the information technology (IT) market keep industry and academia interested in identifying practices that can be beneficial to the software development process. Two decades ago, a set of practices observed in the Linux kernel development was used to characterize the FLOSS development model as a noisy bazaar. However, since then, the FLOSS ecosystem diversified its forms of development. The Linux kernel project has also undergone notable transformations in its community and development processes toward professionalism and civility. FLOSS projects usually have a community supporting its development and organically producing plentiful information to describe how, when, and why a particular change occurred in the source code or the development flow. Although the existence of several studies on the FLOSS phenomenon and its development, these essential sources of information have been overlooked due to the informality and socio-technical challenges for data collection and analysis. Neglect of these resources may have led some studies to outdated and shallow results regarding FLOSS development practices. Bearing this in mind, we considered the great wealth of open-access materials and the Linux project relevance and protagonism on FLOSS phenomenon to mitigate the distance between what is investigated by academia and what is observed in practice on the development of the Linux kernel. We designed a multi-method investigation to cover academics and practitioners perspectives on the projects socio- technical aspects. We used a multivocal literature review, examining peer-reviewed papers and grey literature, to accurately map the Linux kernel development communitys current characteristics. We included the participant observation on the development community as a third perspective to discuss our findings and nuances involved in community-based development. We also synthesized a set of research strategies to review FLOSS community publications. As a result, this research summarizes the state-of-the-art and state-of-the- practice of the Linux kernels contemporary development model. As an adjoining outcome of this work, we present a combination of research methods that could boost and guide future FLOSS ecosystems research.
2021
Melissa Shihfan Ribeiro Wen
MOOC de geometria: discussões e proposta de um modelo para a educação básica
O MOOC surge em 2008 como um novo modelo de curso na modalidade EAD que, em certo sentido, retoma o antigo modelo dos cursos por correspondência, nos quais existia pouca ou nenhuma interação entre aprendiz e professor. São cursos online com grande quantidade de alunos, por isso denominados MOOC, do inglês, Massive Open Online Course. Esses cursos estão apoiados exclusivamente em tecnologias da Web e na maioria das vezes não exigem pré-requisitos e não fornecem certificados. Outro fator comum a esses cursos é o alto número de desistências, por volta de 95%. A maior parte dos cursos do tipo MOOC disponíveis hoje, apresentam um formato tradicional, no qual o aprendiz fica em condição quase passiva, já que as interações praticamente ficam restritas à controle de visualização de vídeos, com comandos do tipo para, voltar ou continuar. Nesse contexto, o desafio deste trabalho é melhorar o entendimento sobre os modelos de MOOC, examinando as causas de desistência relativas ao conteúdo e formato de apresentação para essa modalidade de EAD, além de propor um curso de Geometria, nessa modalidade, para o ensino básico, empregando ferramentas interativas, como o iGeom, software de Geometria Interativa (GI), e outras mídias, como áudios e vídeos. Nesse curso busca-se uma abordagem motivadora, comparando-o a um curso de controle. Esse modelo foi testado com um público formado por adultos e adolescentes, sendo 37,9% composto de adolescentes provenientes de escolas públicas, apresentando bons resultados. Na análise dos dados obtidos, encontrou-se indícios de que, comparado com o curso de controle, um maior número de alunos permaneceu no curso por mais tempo, possivelmente, pela realização de atividades interativas.
2015
Maria José Guimarães de Souza
Avaliação de escalabilidade e desempenho da camada de transporte de mensagens em plataformas multiagente
Este trabalho reside no campo de sistemas multiagente (MAS) compostos por agentes inteligentes que são capazes de usar protocolos de comunicação da Internet. Uma plataforma multiagente é um software ou framework capaz de gerenciar múltiplos aspectos da execução de agentes e suas interações. Muitas plataformas MAS foram desenvolvidas nos últimos anos, todas elas compatíveis com padrões de desenvolvimento de sistemas interoperáveis em diferentes níveis. Nos últimos anos,novas linguagens de programação foram definidas e novos protocolos foram adotados para comunicação em sistemas distribuídos. Esses fatos também influenciaram a comunidade multiagente,com a proposição de novas plataformas para apoiar o desenvolvimento de sistemas multiagente. Além disso, a adoção de agentes como paradigma para o desenvolvimento de sistemas distribuídos complexos em larga escala é vista como uma solução interessante na era do grande volume de dados. Portanto, uma comparação entre as plataformas existentes e seu suporte para desenvolver e implantar com eficiência sistemas multiagente de grande escala pode beneficiar a comunidade de desenvolvedores interessada em escolher qual plataforma melhor se adapta a seus projetos. O objetivo deste trabalho é avaliar plataformas multiagente em relação à escalabilidade, desempenho e compatibilidade com outras tecnologias com o objetivo de facilitar a escolha do desenvolvedor que queira projetar Sistemas Multiagente de grande porte. A fim de escolher as plataformas MAS para a comparação proposta, são consideradas plataformas de código aberto que são ativamente utilizadas pela comunidade multiagente. Além disso, tais plataformas MAS devem ser capazes de oferecer uma implantação de forma distribuída, característica essencial de sistemas escaláveis. Depois de restringir a lista de plataformas MAS de acordo com esses critérios, são analisados os sistemas de transporte de mensagens utilizando benchmarks para análise de escalabilidade e desempenho, considerando diferentes cenários de comunicação. Por fim, é apresentado um cenário realístico onde um MAS escalável pode ser adotado como solução.
2019
Henrique Donâncio Nunes Rodrigues
A bag of features approach for human attribute analysis on face images
Computer Vision researchers are constantly challenged with questions that are motivated by real applications. One of these questions is whether a computer program could distinguish groups of people based on their geographical ancestry, using only frontal images of their faces. The advances in this research area in the last ten years show that the answer to that question is affirmative. Several papers address this problem by applying methods such as Local Binary Patterns (LBP), raw pixel values, Principal or Independent Component Analysis (PCA/ICA), Gabor filters, Biologically Inspired Features (BIF), and more recently, Convolution Neural Networks (CNN). In this work we propose to combine the Bag-of-Visual-Words model with new dictionary learning techniques and a new spatial structure approach for image features. An extensive set of experiments has been performed using two of the largest face image databases available (MORPH-II and FERET), reaching very competitive results for gender and ethnicity recognition, while using a considerable small set of images for training.
2019
Rafael Will Macêdo de Araujo
Identificação e visualização de dependências em sistemas de software orientados a objetos
Degradação do design é um problema central investigado na área de evolução de software. A densa rede de interdependências que emerge entre classes e módulos ao longo do tempo resulta em código difícil de mudar, não reutilizável e que não comunica por si só sua intenção. Dentre outros motivos, designs degradam porque requisitos mudam de maneiras não antecipadas pelo design inicial, ou seja, as modificações no código introduzem dependências novas e não planejadas entre classes e módulos do sistema. A gerência de dependências visa reduzir a degradação do design por meio de uma série de mecanismos que auxiliam na administração da complexidade estrutural inerente de sistemas orientados a objetos. Neste trabalho, investigamos as técnicas de identificação de dependências estruturais e lógicas. Em particular, por meio de um estudo de larga escala, comparamos os conjuntos desses dois tipos de dependências. Em seguida, conduzimos um estudo de caso a fim de identificar as origens de dependências lógicas. Por fim, fazemos um levantamento das técnicas de visualização de dependências e mostramos a ferramenta XFlow.
Detecção de rasuras em símbolos com aprendizado Bayesiano de programas (BPL)
Avanços significativos no reconhecimento de manuscritos rasurados e na recuperação de textos degradados tem sido obtidos através do uso de técnicas de aprendizado de máquina. No entanto, o grande número de exemplos necessários na etapa de treinamento pode comprometer o uso prático de tais métodos. Este trabalho descreve um modelo de aprendizado para a classificação de dígitos rasurados denominado de \"aprendizado por um tiro\'\', pois que permite uma caracterização mais próximo ao de um ser humano. O termo \"aprendizado por um-tiro\'\' especifica que o aprendizado de um novo conceito é obtido pelo reconhecimento dos principais traços característicos de um objeto, palavra ou símbolo dado um conhecimento a priori relativamente pequeno sobre um novo objeto ainda não identificado. Deste modo, este pré conceito sobre sua caracterização admite a construção de classificadores que realizem a predição a partir de uma imagem de teste como entrada com um conjunto reduzido de imagens de treinamento. Este projeto cria um método que busca classificar imagens rasuradas de manuscritos a partir de um conjunto reduzido de imagens de treinamento sem rasura. Todo o pré-ajuste calculado através dessas imagens são separados por amostras chamadas de \"programas\'\', ou seja, uma composição do conhecimento a priori de todos os traços e sub-traços existentes na imagem, componentes estas que atribuem variabilidades locais e globais que poderão ser reconhecidas estatisticamente por Inferência Bayesiana. Destacamos aqui que o modelo consegue predizer dígitos e símbolos independentemente das rasuras pré-dispostas no conjunto de imagens de testes, onde este conhecimento a priori é inexistente dentro do conjunto de imagens de treinamento. Apresentamos em nossos resultados uma análise que, dado o ajuste inicial aplicado pelo aprendizado Bayesiano de Programas (BPL), nos permitiu utilizar características locais (traços) retiradas de cada símbolo para mensurar o custo referente entre todos os traços de uma imagem de teste e os traços em cada classe representado como imagem de treinamento. Para a obtenção do custo, utilizamos da métrica de deformação dinâmica aplicado em séries temporais (DTW). Finalmente, realizamos a predição para cada grupo de execuções considerando três conjuntos de dados: no primeiro com o grupo de imagens de teste rasuradas, no qual se obteve uma média global de acertos de 76%; no segundo conjunto com imagens de testes sem rasura (com diferença nos traços entre teste e treinamento), obtivemos uma média de 90% para com os acertos; e o terceiro conjunto usando o Omniglot. Tais reajustes adquiridos com poucos exemplos vislumbram futuras aplicações mais complexas em manuscritos degenerados ainda não digitalizados.
2019
Raphael Davis de Oliveira Costa
Um modelo para interoperabilidade entre instituições heterogêneas
A interação entre instituições heterogêneas tem sido cada vez mais necessária para obter e disponibilizar informações e serviços para seus usuários internos e externos. Esta interação tem sido sustentada principalmente pelo uso das novas tecnologias da informação e comunicação. A interoperabilidade entre instituições heterogêneas garante esta interação e proporciona vários benefícios como, por exemplo, utilizar toda a plataforma legada das instituições e ainda permitir a interação entre os sistemas. Entretanto, para que esta interoperabilidade seja possível é necessária a definição de conceitos comuns que padronizam e orientam as interações entre as instituições. Através destes conceitos comuns, as instituições podem trocar informações entre si e ainda manter sua independência e as particularidades em seus sistemas internos. Em nosso trabalho, propomos um Modelo para Interoperabilidade entre Instituições Heterogêneas (MIIH). A especificação das regras de interação e, especificamente, os protocolos de interoperabilidade entre as instituições são escritas usando JamSession, que é uma plataforma para a coordenação de serviços de software heterogêneos e distribuídos. O modelo também define uma arquitetura baseada em Artefatos do Conhecimento Institucionais para lidar com as conexões com os sistemas das instituições. Estes Artefatos do Conhecimento Institucionais são baseados no conceito geral de Artefatos do Conhecimento, ou seja, \"objetos que contêm e transmitem uma representação utilizável do conhecimento\". Os Artefatos do Conhecimento Institucionais são padrões arquitetônicos recorrentes que são observados no projeto de mecanismos de interoperabilidade para conectar instituições heterogêneas e são usados como uma descrição de alto nível da arquitetura para um projeto de sistema. Eles funcionam como padrões arquiteturais pré-concebidos que norteiam e padronizam as interações e, portanto, a interoperabilidade organizacional e semântica entre as instituições. Os Artefatos do Conhecimento Institucionais são fundamentados sobre uma ontologia de conceitos relevantes para os serviços destas instituições, cujo nível de abstração pode variar, dependendo do nível de integração necessário para as instituições - quanto mais sofisticada a interação, mais detalhes devem ser representados explicitamente na ontologia. Os Artefatos do Conhecimento Institucionais implementados também se comunicam com a camada de interação com o usuário, baseada em mundos virtuais, para garantir a comunicação adequada com estes usuários. Além do modelo conceitual proposto, apresentamos como resultado deste trabalho, um exemplo de uso do MIIH no contexto das instituições relacionadas à herança cultural (museus, galerias, colecionadores, etc.). Tendo reconhecido que este contexto dos museus é importante para toda a sociedade, verificamos mais profundamente o funcionamento dos museus e suas interações entre si e com seus usuários. Identificamos neste cenário a aplicação direta de nosso projeto, uma vez que a interoperabilidade entre os museus é fundamental para o desempenho de suas funções e a interoperabilidade com seus usuários define a razão de sua existência, conforme identificamos na definição de museu apresentada pela UNESCO. Este exemplo de uso é construído seguindo a metodologia proposta neste trabalho e serve para mostrar a utilização do nosso modelo no desenvolvimento de uma aplicação concreta para uso em instituições de arte e também por seus usuários.
2012
Cláudia Josimar Abrão de Araújo