RCAAP Repository
Programação por restrições e escalonamento baseado em restrições: Um estudo de caso na programação de recursos para o desenvolvimento de poços de petróleo
O objetivo dessa dissertação é apresentar um problema de otimização do uso de recursos críticos no desenvolvimento de poços de petróleo marítimos e a técnica empregada para a abordagem proposta ao problema. A revisão da técnica de Programação por Restrições é feita analisando aspectos relevantes de modelagem, propagação, busca e paradigmas de programação. A especialização da técnica para problemas de escalonamento, o Escalonamento Baseado em Restrições, é descrita com ênfase nos paradigmas descritivos e nos mecanismos de propagação de restrições. Como subsídio ao uso da técnica em outros problemas, a linguagem comercial de modelagem OPL é apresentada no Apêndice. O objetivo da abordagem ao problema é obter um escalonador para maximizar a produção de óleo obtida no curto prazo. O escalonador proposto baseia-se na declaração de um modelo empregando variáveis de intervalo. Um algoritmo e um modelo de Programação Linear Inteira abordando relaxações do problema são apresentados para que se obtenha um limitante superior ao valor de produção ótimo. Para o cenário real no qual a análise experimental foi feita, foram obtidas soluções a menos de 16% do ótimo após uma hora de execução; e os testes em instâncias de tamanhos variados evidenciaram a robustez do escalonador. Direções para trabalhos futuros são apresentadas ponderando os resultados obtidos.
2012
Thiago Serra Azevedo Silva
Uso de jogos digitais no desenvolvimento de competências curriculares da matemática
Este doutorado investigou as contribuições dos jogos digitais no desenvolvimento de conhecimentos matemáticos previstos nas competências curriculares em uma escola estadual de tempo integral, situada em Cotia - São Paulo. As análises realizadas foram fundamentadas a partir das categorias estudadas pelo psicólogo e educador Reuven Feuerstein quanto às mudanças na estrutura cognitiva (EAM) de alunos do Ensino Fundamental II. Esta investigação foi desenvolvida com 60 alunos e três professoras de Matemática em Oficinas Curriculares denominadas Experiências Matemáticas. Em sua trajetória metodológica contou com a participação da equipe gestora, professores de Matemática, alunos do Ensino Fundamental II e Grupo Alpha de Pesquisa - FEUSP durante dois anos. A investigação, de natureza qualitativa, caracterizou-se como pesquisa-ação e contou com a imersão total do pesquisador no campo amostral. Foram adotados técnicas e procedimento de pesquisa triangulados como a observação participante, entrevistas semiestruturadas, entrevistas informais, grupos focais, gravação de áudio e vídeos, fotos, diários de campo, atividades com os jogos digitais, um ambiente virtual (Moodle) e a combinação de duas redes sociais, FaceBook e WhatsApp. Os resultados apontaram que: i) o contexto escolar representa espaço privilegiado de sistematização e compreensão do complexo registro notacional da Matemática com a mediação dos jogos digitais; ii) o ensino da Matemática por meio de jogos digitais conferem sentido e significado às aprendizagens dos alunos; iii) os jogos digitais conferem ao desenvolvimento de competências e habilidades cognitivas com flexibilidade, autonomia, transcendência e construção de significados que são alguns critérios de mediação apontados por Feuerstein; iv) os jogos digitais favorecem a compreensão de conteúdos matemáticos de forma colaborativa e lúdica; v) os professores de Matemática necessitam de formação permanente que possa ampliar as transformações pedagógicas inovadoras de novos modos de aprender e de ensinar; vi) as abordagens pedagógicas podem se beneficiar de perspectivas contemporâneas como mobile-learning, Flipped-classroom e Bring Your Own Device como formas de reduzir os desafios e dificuldades das escolas públicas (políticas educacionais, infraestrutura, formação docente).
2017
Adalberto Bosco Castro Pereira
Últimos levelings: conceitos, propriedades, algoritmos e aplicações em processamento e análise de imagens
Em Morfologia Matemática diversos operadores são definidos pela diferença entre outros dois operadores, como por exemplo, o gradiente morfológico, definido como a diferença entre a dilatação e a erosão. Estes operadores são denominados operadores residuais, sendo alguns deles definidos por valores residuais extraídos de famílias indexadas de operadores, como por exemplo, o esqueleto por discos maximais e a última abertura. Neste sentido, visa-se neste trabalho investigar a extração de informações residuais em famílias indexadas de operadores. Mais precisamente, em famílias de operadores conexos conhecidos como levelings. Os levelings são operadores que não criam novas estruturas (contornos e extremos regionais) e seus valores são limitados pelos valores da imagem de referência. Assim, é apresentada nesta tese uma classe de operadores residuais denominada últimos levelings, a qual consiste de poderosos operadores residuais definidos a partir de resíduos gerados por operadores consecutivos de um espaço de escala baseado em levelings. Dessa forma, objetos contrastantes podem ser detectados se relevantes resíduos são gerados quando eles são filtrados por um desses levelings. Os valores residuais revelam importantes informações sobre contrastes presentes em uma imagem. Além dos valores residuais, outras informações associadas com eles podem ser obtidas no momento da extração residual, tais como os índices dos operadores que produziram os valores residuais. Com base nessas considerações, as principais contribuições originais desta pesquisa, incluem: (i) demonstrar que árvores construídas a partir de conjuntos de níveis representam espaços de escalas baseados em levelings; (ii) introduzir a classe dos últimos levelings, passando por definições, conceitos, algoritmos, propriedades e relações com outros operadores conhecidos na literatura; (iii) apresentar estratégias para construção de operadores últimos levelings. Por fim, são apresentadas aplicações dos últimos levelings em problemas de análise e processamento de imagens.
2015
Wonder Alexandre Luz Alves
Algoritmos eficientes para análise de campos aleatórios condicionais semi-markovianos e sua aplicação em sequências genômicas
Campos Aleatórios Condicionais são modelos probabilísticos discriminativos que tem sido utilizados com sucesso em diversas áreas como processamento de linguagem natural, reconhecimento de fala e bioinformática. Entretanto, implementar algoritmos eficientes para esse tipo de modelo não é uma tarefa fácil. Nesse trabalho apresentamos um arcabouço que ajuda no desenvolvimento e experimentação de Campos Aleatórios Condicionais Semi Markovianos (semi-CRFs). Desenvolvemos algoritmos eficientes que foram implementados em C++ propondo uma interface de programação flexível e intuitiva que habilita o usuário a definir, treinar e avaliar modelos. Nossa implementação foi construída como uma extensão do arcabouço ToPS que, inclusive, pode utilizar qualquer modelo já definido no ToPS como uma função de característica especializada. Por fim utilizamos nossa implementação de semi-CRF para construir um preditor de promotores que apresentou performance superior aos preditores existentes.
Integrando banco de dados relacional e orientado a grafos para otimizar consultas com alto grau de indireção
Um indicador importante na área acadêmica está relacionado ao grau de impacto de uma publicação, o que pode auxiliar na avaliação da qualidade e do grau de internacionalização de uma instituição. Para melhor delimitar esse indicador torna-se necessária a realização de uma análise das redes de colaboração dos autores envolvidos. Considerando que o modelo de dados relacional é o modelo predominante dos bancos de dados atuais, observa-se que a análise das redes de colaboração é prejudicada pelo fato desse modelo não atender, com o mesmo desempenho, a todos os tipos de consultas realizadas. Uma alternativa para executar as consultas que perdem desempenho no modelo de banco de dados relacional é a utilização do modelo de banco de dados orientado a grafos. Porém, não é claro quais parâmetros podem ser utilizados para definir quando utilizar cada um dos modelos de bancos de dados. Assim, este trabalho tem como objetivo fazer uma análise de consultas que, a partir da sintaxe da consulta e do ambiente de execução, possa apontar o modelo de dados mais adequado para execução da referida consulta. Com essa análise, é possível delimitar em que cenários uma integração entre o modelo relacional e o orientado a grafos é mais adequada.
2017
Marino Hilario Catarino
Rastros de contatos e grafos dinâmicos
Com base em três modelos de mobilidade MapBasedMovement, RandomWayPoint e RandomWalk presentes no simulador The One, sugerimos e discutimos vários modelos es- tocásticos para mobilidade. Primeiramente, a dinâmica das unidades móveis é reduzida a um processo chamado grafo dinâmico, de forma que a configuração espacial das unidades móveis em cada instante de tempo está resumida em um grafo. Os vértices desse grafo são unidades móveis e não mudam conforme o tempo: consideramos um sistema fechado, as unidades não desaparecem e não aparecem novas. O elo entre duas unidades (vértices) em um instante de tempo significa um contato neste instante (a distância entre as unidades é menor que um raio de contato), assim o conjunto de elos muda durante a evolução do sistema. Em seguida, modelamos a evolução do grafo dinâmico como um conjunto de pro- cessos aleatórios binários de forma que cada componente do processo está associada com um par de unidades móveis indicando presença ou ausência de contato entre elas. Três componentes principais constroem o processo: (i) distribuição de tempo de intercontato, (ii) distribuição de tempo de contato, e (iii) independência/interação entre as unidades. Nesta Tese mostramos teoricamente e através de simulações como escolher todos os três componentes para três modelos de mobilidade mencionados acima na situação de baixa densidade de unidades móveis, chamado DTNs (Delay Tolerant Networks). Considerar a modelagem da mobilidade desse ponto de vista é novo e não existe na literatura, até onde sabemos. Existe uma discussão na literatura sobre o tempo de intercontato, mas não conhecemos os resultados e discussão sobre a distribuição do tempo de contato e a interdependência de processos de contatos.
Agrupamento baseado em modelos de mistura de gaussianas com covariáveis
Frequentemente, o processo de agrupamento é a primeira etapa em diversos projetos de análises de dados. Ele permite identicar padrões que não foram notados antes, sendo muito útil para detectar novas hipóteses. No entanto, um desao na análise de dados empíricos é a presença de covariáveis, que podem mascarar a estrutura de agrupamento obtida. Por exemplo: se estamos interessados em agrupar um conjunto de indivíduos em um grupo de controle e pacientes com câncer. Neste caso, o algoritmo de agrupamento poderia agrupar as observações apenas em jovens e velhos. Isso pode acontecer pois a idade do diagnóstico é associada ao câncer. Com isso em mente, desenvolvemos o CEM-Co, um algoritmo baseado em modelos, que remove/minimiza os efeitos das covariáveis durante o processo de agrupamento. Aplicamos o CEM-Co a uma base de dados de expressão gênica, composta de 129 pacientes de câncer de pulmão do estágio I. Como resultado, foi possível identicar um subgrupo de pacientes com taxa de sobrevida estatisticamente menor, algo até então não encontrado.
2020
Carlos Eduardo Martins Relvas
Hand pose estimation and movement analysis for occupational therapy
Hand pose estimation is a challenging problem in computer vision with a wide range of applications, especially in human-computer interface. With the development of inexpensive consumer-level depth cameras and the evolution on deep learning techniques, the current state-of-art in the problem is continuously developing and several new methods have been proposed in recent years. Those methods are mostly data-driven and reach good results in standard datasets such as NYU, ICVL and HANDS17. An application that would benefit from the use of computer vision techniques is hand occupational therapy. In chronic diseases like rheumatoid arthritis (RA), the evaluation of the hand functional state is fundamental for the treatment and prevention of finger deformities. One of the procedures for deformity diagnosis is the measurement of movement angles i.e. flexion/extension and abduction/addution, made using goniometers in a process that can be time-consuming and invasive for the patient. The main proposal of this PhD is to fill a gap in the literature by proposing and evaluating the viability of using a framework composed of a 3D low-cost sensor and a 3D hand pose estimation state-of-art method for automatic assessment of rheumatoid arthritis patients. Given depth maps as input, our framework estimates 3D hand joint positions using a deep convolutional neural network. The proposed pose estimation algorithm can be executed in real-time, allowing users to visualise 3D skeleton tracking results at the same time as the depth images are acquired. Once 3D joint poses are obtained, our framework estimates flexion/extension and abduction/adduction angles by applying computational geometry oper- ations. The absence of public datasets with RA patients in the literature makes the estimation of hand poses of patients a challenge for computer vision data-driven methods. We therefore proposed a protocol to acquire new data from groups of patients and control. We performed experiments of identification of RA patients and control sets and also performed comparison with goniometer data. Results show that a method based on Fourier descriptors is able to perform automatic discrimination of hands with Rheumatoid Arthritis (RA) and healthy pa- tients. The angle between joints can be used as an indicative of current movement capabilities and function. The acquisition is much easier, non-invasive and patient-friendly, significantly reducing the evaluation time and offering real-time data for the dynamic movement.
2021
Luciano Walenty Xavier Cejnog
Estimadores de parâmetro consistentes para modelos de grafo aleatório e estudo sobre a relação entre a rede modo padrão do cérebro e o volume do corpo caloso
Grafos possibilitam estudar o funcionamento de diversos sistemas, como redes biológicas e sociais. Nesse contexto, surge o problema (i) de selecionar um modelo de grafo aleatório e um conjunto de parâmetros que melhor se ajustem a uma rede do mundo real, buscando interpretar e predizer seu comportamento. Dada uma sequência de redes e valores observados, temos adicionalmente o problema (ii) de correlacioná-los. Para (i), Takahashi e colegas propuseram um método baseado nas densidades dos espectrais (distribuição dos autovalores da matriz de adjacência) cuja principal vantagem é a generalidade. Nós propusemos adaptações, baseadas na norma l1 entre densidades espectrais e entre distribuições acumuladas, que nos levaram à derivação de resultados teóricos sobre a consistência do estimador de parâmetro. Finalmente, o problema (ii) é abordado no Transtorno do Espectro Autista (TEA), cujas sub-classificações em Asperger e autismo têm bases neurais pouco conhecidas. Como há evidências de alterações da rede modo padrão em TEA, comparamos a relação dessa rede com a maior estrutura de matéria branca do cérebro (corpo caloso) entre Asperger e autismo. Nossos resultados sugerem que essa relação é maior em Asperger do que em autismo na região anterior do corpo caloso e que o maior autovalor do grafo é capaz de capturar a relação com o parâmetro estimado.
2020
Suzana de Siqueira Santos
Belief change without compactness
One of the main goals of Artificial Intelligence (AI) is to build rational agents that are capable of taking rational decisions autonomously. For this, it is essential to devise mechanisms to properly represent knowledge, and reason about the knowledge that an agent has about the world. However, an agents knowledge is not static - it gets updated as the agent acquires new information. One of the big challenges involving knowledge representation is how an agent ought to change its own knowledge and beliefs in response to any new information it acquires. This, in short, is the problem of belief change. Standard approaches of Belief Change come in two flavours: a set of rationality postulates that prescribes epistemic behaviours for an agent, and a collection of constructions, or functions, to perform such rational changes. The two foremost paradigms of Belief Change are the AGM paradigm (for belief change in a static environment) and the KM paradigm (for belief change in a dynamic environment). Both these paradigms make strong assumptions about the underlying logic used to express an agent beliefs, such as Supraclassicality and Compactness. Relying on these assumptions, however, is rather restrictive, since many logics that are important for both AI and Computer Science applications do not have them. This thesis focuses on extending Belief Change to the realm of non-compact logics. One of the side effects of dispensing with compactness is that standard constructions of both the AGM and the KM paradigms no longer nicely connect with the respective rationality postulates. In this work, I identify the reasons behind this breakdown. This in turn helps us identify some minimal conditions under which the existence of rational AGM and KM belief change operations is guaranteed. Subsequently we provide constructive accounts of AGM- and KM-rational belief change operations without the compactness assumption, and we offer full accounts of belief change for both the paradigms. The main difference of our approach from the standard ones relies on the way epistemic preference of an agent is represented: instead of remainders and Groves Systems of Spheres, we consider maximal complete theories and genuine partial relations over worlds. Furthermore, we also consider the connection between AGM revision and non-monotonic reasoning (NMR) systems, often viewed to be two sides of the same coin. We demonstrate that the bridge between belief revision and NMR breaks down in the absence of compactness. We then identify the basis of this breakdown, and present a new non-monotonic system that appropriately connects with the AGM revision postulates even in absence of compactness. Significantly, this connection with the AGM paradigm is independent of any specific constructions (such as systems of spheres), and is directly established between the AGM postulates and the axioms of the proposed non-monotonic system.
2020
Jandson Santos Ribeiro Santos
Uma visão sobre a próxima geração de abstrações de processos em sistemas operacionais
Nas últimas décadas, muitos pesquisadores dedicaram-se a avançar o modelo atual de abstração de processos, seja por meio da adição de camadas extras de segurança, seja em busca de melhorias de desempenho, ou ainda com o objetivo de fornecer suporte para novos recursos de hardware. Tais melhorias são relevantes porque abstrações de processos em SOs de propósito geral representam o ponto de encontro de diversos recursos de interesse dos usuários. Processos representam a convergência entre a aplicação dos usuários, os modelos de programação oferecidos pelo SO e a utilização dos recursos de hardware. Os esforços para expandir as capacidades dos SOs no nível da abstração de processos abrem uma nova área de pesquisa ainda pouco explorada. Nesta dissertação, após um levantamento preliminar dos trabalhos relacionados ao tema, nos concentramos em 9 pesquisas que foram selecionadas levando-se em consideração aspectos como as propostas de implementação adotadas por elas e o seu impacto na literatura da área. Desses trabalhos, derivamos um conjunto de características que consideramos importantes para guiar o desenvolvimento da próxima geração de abstrações de processos. Partindo de tais características, propomos um modelo teórico chamado de bead cujo o objetivo é ilustrar os desafios e vantagem em se expandir as abstrações de processos. Além disso, sugerimos uma coleção de microbenchmarks que podem ser utilizados para revelar parte dos impactos de novas abstrações de processos. Por fim, realizamos uma discussão sobre aplicações de uso cotidiano que podem ser utilizadas para a validação dessas propostas e que também possam delas se beneficiar.
2019
Rodrigo Siqueira Jordão
Métodos estocásticos de otimização global para empacotar círculos em elipses
Neste trabalho, consideramos uma nova parametrização para o problema de empacotar a maior quantidade possível de círculos idênticos uma região elíptica dada. Apresentamos algoritmos com propriedades de convergência global e algumas estratégias heurísticas. Ilustramos com experimentos numéricos extensivos cada uma das estratégias utilizadas
2012
Luis Henrique Bustamante de Morais
Estudo comparativo de passos espectrais e buscas lineares não monótonas
O método do Gradiente Espectral, introduzido por Barzilai e Borwein e analisado por Raydan, para minimização irrestrita, é um método simples cujo desempenho é comparável ao de métodos tradicionais como, por exemplo, gradientes conjugados. Desde a introdução do método, assim como da sua extensão para minimização em conjuntos convexos, foram introduzidas várias combinações de passos espectrais diferentes, assim como de buscas lineares não monótonas diferentes. Dos resultados numéricos apresentados em vários trabalhos não é possível inferir se existem diferenças significativas no desempenho dos diversos métodos. Além disso, também não fica clara a relevância das buscas não monótonas como uma ferramenta em si próprias ou se, na verdade, elas são úteis apenas para permitir que o método seja o mais parecido possível com o método original de Barzilai e Borwein. O objetivo deste trabalho é comparar os diversos métodos recentemente introduzidos como combinações de diferentes buscas lineares não monótonas e diferentes passos espectrais para encontrar a melhor combinação e, a partir daí, aferir o desempenho numérico do método.
2008
Fernando Taietti Camargo
InterSCSimulator: a scalable, open source, smart city simulator
Large cities around the world face numerous challenges to guarantee the quality of life of its citizens. A promising approach to cope with these problems is the concept of Smart Cities, of which the main idea is the use of Information and Communication Technologies to improve city services and infrastructure. Being able to simulate the execution of Smart Cities scenarios would be extremely beneficial for the advancement of the field and for governments. Such a simulator would need to represent a large number of agents such as cars, hospitals, and gas pipelines. One possible approach for doing this in a computer system is to use the actor model as a programming paradigm so that each agent corresponds to an actor. The Erlang programming language is based on the actor model and is the most commonly used implementation of it. In this thesis, we present the first version of InterSCSimulator, an open-source, extensible, large-scale traffic Simulator for Smart Cities developed in Erlang. Experiments showed that the simulator is capable of simulating millions of agents using a real map of a large city. We also present study cases which demonstrate the possible uses of the simulator such as tests new urban infrastructure and test the viability of future transportation modes.
2019
Eduardo Felipe Zambom Santana
Correspondência inexata entre grafos.
Sejam GI = (VI ,AI) e GM = (VM,AM) dois grafos simples. Um mapeamento de GI para GM é um conjunto de associações, tal que cada vértice de VI está associado a um vértice de VM, e cada aresta de AI está associada a um par de vértices de VM. A cada possível associação é atribuído um custo. O problema de correspondência inexata entre grafos (PCIG) consiste em encontrar um mapeamento de GI para GM, tal que a soma dos custos de suas associações seja mínima. Nesta dissertação, resumimos os resultados encontrados na literatura sobre o PCIG e algumas de suas variações. Os resultados que incluímos aqui tratam sobre a questão de como formular o PCIG e algumas de suas variações, através de programação linear inteira. Provamos alguns resultados de complexidade computacional que relacionam variações do PCIG a problemas clássicos, como isomorfismo e partição de grafos. Fornecemos uma formulação através de programação linear inteira para o PCCA (uma variante do PCIG com conexidade e cobertura de arestas). Mostramos que o PCCA é NP-difícil quando os grafos de entrada são completos ou árvores (chamamos o segundo caso de PCCA para árvores). Apresentamos uma formulação linear inteira e um algoritmo - que é polinomial se o grau máximo dos vértices de VM for limitado por uma constante - para o PCCA para árvores. Mostramos um caso especia em que o PCCA para árvores pode ser resolvido em tempo polinomial. Por último, exibimos alguns resultados experimentais, inclusive com instâncias reais de uma aplicação do problema.
2008
Alexandre da Silva Freire
Análise de desempenho do nsQUIC: um módulo para smulação do protocolo QUIC
Várias características da Internet mudaram drasticamente desde que o TCP foi criado, como o maior compartilhamento de recursos devido à maior quantidade de usuários, maior largura de banda disponível, a existência de muitas conexões que podem percorrer longas distâncias e a ubiquidade das redes sem fio. Confrontado com essas novas características, o TCP apresenta diversas limitações. Dentre elas estão a subutilização da rede quando a largura de banda é da ordem de centenas de Gbps, o favorecimento de conexões que possuem pouco atraso (poucas dezenas de milisegundos), a incapacidade de distinção de causas de perdas de pacote e a demora para estabelecimento de conexões seguras (até 3 RTTs). Nesse contexto, com o objetivo de tornar o transporte de dados na Internet mais rápido e eficiente, a Google desenvolveu o protocolo QUIC. O QUIC propõe diversos avanços em relação aos protocolos existentes, como um novo mecanismo para estabelecimento de conexão e controle de congestionamento otimizado. Resultados apresentados pela Google mostraram claro ganho de desempenho em relação ao TCP, justificando o trabalho de tornar o QUIC um padrão IETF da Internet. Porém, esses resultados são impossíveis de serem verificados porque nos relatórios divulgados não há informação suficiente para que os cenários de teste sejam reproduzidos e porque é implausível possuir a mesma infraestrutura para os testes que a Google tem. Neste trabalho, avaliamos o desempenho do protocolo QUIC em diversos cenários de rede, comparando-o com o desempenho de várias implementações do TCP, principalmente o CUBIC. Diferente do realizado na literatura, todos os cenários utilizados são bem descritos, permitindo a reprodutibilidade dos experimentos. Além disso, para a realização dos experimentos foi criado um novo módulo que implementa o QUIC no simulador de redes NS-3. Este módulo está disponível como software livre, permitindo que outros pesquisadores usem o módulo para replicar e verificar nossos experimentos e para criarem novos experimentos de forma reprodutível. Ademais, eles também podem usar o módulo como uma ferramenta para avaliar, de maneira rápida, o comportamento de novas técnicas dentro do protocolo.
2018
Diego de Araujo Martinez Camarinha
Revisão de crenças em lógicas de descrição e em outras lógicas não clássicas
A area de revisão de crenças estuda como agentes racionais mudam suas crencas ao receberem novas informações. O marco da area de revisão de crenças foi a publicacão do trabalho de Alchourron, Gardenfors e Makinson. Nesse trabalho conhecido como paradigma AGM foram denidos criterios de racionalidade para tipos de mudanca de crencas. Desde então, a área de revisão de crenças foi influenciada por diversas disciplinas como filosoa, computacão e direito. Paralelamente ao desenvolvimento da area de revisão de crenças, os últimos 20 anos foram marcados por um grande avanço no estudo das logicas de descrição. Tal avanço, impulsionado pelo desenvolvimento da web-semântica, levou a adoção de linguagens inspiradas em logicas de descrição (OWL) como padrão para se representar ontologias na web. Nessa tese tratamos do problema de aplicar a teoria da revisão de crenças a lógicas não clássicas e especialmente a logicas de descric~ao. Trabalhos recentes mostraram que o paradigma AGM e incompatvel com diversas logicas de descricão. Estendemos esses resultados mostrando outras lógicas que não são compatíveis com o paradigma AGM. Propomos formas de aplicar a teoria de revisão tanto em bases quanto em conjuntos de crencas a essas logicas. Alem disso, usamos algoritmos conhecidos da área de depuração de ontologias para implementar operações em bases de crenças.
2010
Marcio Moretto Ribeiro
Domain generalization, invariance and the Time Robust Forest
As time passes by, the performance of real-world predictive models degrades due to distributional shifts. Typical countermeasures, such as retraining and online learning, can be costly and difficult to implement in production, especially when business constraints and culture are accounted for. Causality-based approaches aim at identifying invariant mechanisms from data, thus leading to more robust predictors at the possible expense of a decrease in short-term performance. However, most such approaches scale poorly to high dimensions or require extra knowledge such as segmentation of the data in representative environments. In this work, we review the literature on the limitations of Machine Learning in real settings, with a focus on approaches that use causality concepts to improve generalization. Motivated by the shortcomings discussed above, we develop Time Robust Forests (TRF), a new algorithm for inducing decision trees with an inductive bias towards learning time-invariant rules. The algorithm\'s main innovation is to replace the usual information-gain split criterion (or similar) with a new criterion that examines the imbalance among classes induced by the split through time. Experiments with real data show that our approach can improve long-term generalization, thus offering an interesting alternative for dynamical classification problems.
2021
Luis Gustavo Moneda dos Santos
Problemas de corte com sobras aproveitáveis e eliminação de simetrias
No presente trabalho estudamos duas variações do problema de empacotamento de itens retangulares idênticos, permitindo rotações de 90 graus, em um poliedro. Uma variação consiste em encontrar a maior quantidade de itens retangulares idênticos que podem ser empacotados em um poliedro. A outra consiste em encontrar o poliedro de um determinado tipo com menor área para empacotar uma quantidade fixa de itens retangulares idênticos. Desenvolvemos restrições de eliminação de simetrias para estes problemas, o que tornou a resolução dos mesmos mais eficiente, por métodos do tipo branch-&-bound. Estudamos também o problema de corte no qual há uma determinada demanda (de itens) a ser cortada e um conjunto de objetos disponíveis. Desejamos satisfazer a demanda minimizando o custo dos objetos utilizados e, dentre as diferentes possibilidades de se fazer isso, desejamos aquela que maximize as sobras aproveitáveis. De forma geral, sobras aproveitáveis podem ser entendidas como regiões retangulares de um objeto que possuem altura e largura iguais ou superiores a de um item de referência e representam sobras do processo de corte que podem se tornar objetos e serem reaproveitadas em um novo procedimento de corte. Apresentamos modelos de otimização em dois níveis para duas variações do problema de corte com sobras aproveitáveis a saber: o problema de corte de itens retangulares em dois estágios e o problema de corte de itens retangulares não guilhotinado. Como formas de resolver os modelos propostos, apresentamos reformulações destes modelos de programação em dois níveis em modelos de programação inteira mista. Lidamos também com uma variação do problema de corte com sobras aproveitáveis considerando a minimização da quantidade de sobras. Aplicamos restrições de eliminação de simetrias aos modelos desenvolvidos para o problema de corte de itens retangulares com sobras aproveitáveis, a fim de resolver instâncias maiores, e desenvolvemos uma estratégia de solução alternativa para os modelos. Os modelos desenvolvidos foram implementados computacionalmente e fomos capazes de resolver instâncias pequenas dos problemas em questão.
2012
Ricardo Luiz de Andrade Abrantes
Two studies on Convolutional Neural Networks sensibility to resolution
Convolutional Neural Networks (CNNs) recently became the state-of-the-art for various Computer Vision tasks. However, for reasons not completely understood, they are very sensitive to low resolution images. This can be troublesome as real life applications such as automated driving or surveillance can not use high resolution sensors. In this work we perform two studies on this subject matter: on the first we empirically study the effect of resolution loss and image restoration algorithms on a Face Recognition model. On the second, we study the high frequency bias hypothesis, one of the current possible explanations for CNNs sensitivity. We are able to develop new techniques for image restoration that better deal with the low resolution recognition problem and advance the understanding of the high frequency bias in CNNs.
2021
Antonio Augusto Abello