Repositório RCAAP
Um modelo de notações customizáveis para representação gráfica de ontologias como suporte à edição por especialistas de domínio
Muitos estudos têm demonstrado a necessidade de melhorar as interfaces dos editores de ontologia. Esses estudos sugerem o aprimoramento da usabilidade dessas ferramentas e a necessidade de análises adicionais dos requisitos do usuário. Isso é especialmente verdadeiro quando os usuários são especialistas em domínios não relacionados à Ciência da Computação. Neste trabalho, uma nova abordagem é proposta para a interface de editores de ontologias direcionados a especialistas de domínio. O editor gráfico resultante, chamado Knowledge Graph Web Editor (KGWE), usa notações visuais personalizáveis pelo usuário para apresentar os elementos visuais de maneiras mais adequadas ao domínio do especialista. O objetivo foi criar interfaces mais compreensíveis para esses usuários, explorando técnicas encontradas na literatura de Visualização de Informações e Engenharia de Usabilidade. O editor salva as ontologias na Web Ontology Language (OWL), um padrão do W3C. Quatro experimentos de avaliação de Interface foram conduzidos com o editor, como parte de uma colaboração com pesquisadores em agricultura (sustentabilidade) da Embrapa e da Agência Paulista de Tecnologia dos Agronegócios. Eles mostraram que as interfaces do editor e as notações customizáveis foram consideradas eficientes e eficazes pelos especialistas de domínio. Esses especialistas também consideraram o editor mais utilizável do que suas ferramentas atuais.
2022-12-06T14:47:11Z
Wander de Almeida Limeira
Extração de informação de artigos científicos: uma abordagem baseada em indução de regras de etiquetagem
Este trabalho faz parte do projeto de uma ferramenta denominada FIP (Ferramenta Inteligente de Apoio à Pesquisa) para recuperação, organização e mineração de grandes coleções de documentos. No contexto da ferramenta FIP, diversas técnicas de Recuperação de Informação, Mineração de Dados, Visualização de Informações e, em particular, técnicas de Extração de Informações, foco deste trabalho, são usadas. Sistemas de Extração de Informação atuam sobre um conjunto de dados não estruturados e objetivam localizar informações específicas em um documento ou coleção de documentos, extraí-las e estruturá-las com o intuito de facilitar o uso dessas informações. O objetivo específico desenvolvido nesta dissertação é induzir, de forma automática, um conjunto de regras para a extração de informações de artigos científicos. O sistema de extração proposto, inicialmente, analisa e extrai informações presentes no corpo dos artigos (título, autores, a filiação, resumo, palavras chaves) e, posteriormente, foca na extração das informações de suas referências bibliográficas. A proposta para extração automática das informações das referências é uma abordagem nova, baseada no mapeamento do problema de part-of-speech tagging ao problema de extração de informação. Como produto final do processo de extração, tem-se uma base de dados com as informações extraídas e estruturadas no formato XML, disponível à ferramenta FIP ou a qualquer outra aplicação. Os resultados obtidos foram avaliados em termos das métricas precisão, cobertura e F-measure, alcançando bons resultados comparados com sistemas similares
2022-12-06T14:47:11Z
Alberto Cáceres Álvarez
Análise e implementação de suporte a SMP (multiprocessamento simétrico) para o sistema operacional eCos com aplicação em robótica móvel
Technological development has significantly reduced the distance between the performance of systems designed using reconfigurable computing and dedicated hardware. The main sources of performance are the high density level of the FPGAs and the resources? improvement offered by manufacturers, who make more its use more attractive in a variety of applications, emphatically in systems that demand a high degree of flexibility. In this context, the objective of this work consists on the exploration of the resources offered by FPGAs for the development of a multiprocessed platform with the purpose of parallel execution of tasks. In this way, the eCos operating system was modified, with the addition of new characteristics to support of the Symmetric Multiprocessing model, using three soft-Core Altera Nios II processors. On this operating system, all parallelism is directly related to execution of the threads. This platform was analyzed and validated through the execution of parallel algorithms, emphasizing aspects of performance and flexibility compared to other architectures. This work contributes for reaching better results in the execution of tasks in robotics area, which belongs to a domain that demand great competition of tasks, mainly in modules that involve interaction with the external environment
2022-12-06T14:47:11Z
Maikon Adiles Fernandez Bueno
Manutenção de Software: problemas típicos e diretrizes para uma disciplina específica
O volume crescente de software em funcionamento em todo tipo de organização vem despertando atenção para uma fase do ciclo de vida de software, até então considerada sempre de maneira secundária, a manutenção de software. O fato de geralmente não ser viável substituir os produtos de software de uma organização por outros baseados em tecnologias mais recentes, torna a manutenção daqueles sistemas legados um desafio adicional para a busca de técnicas e métodos para a manutenção de software. Os problemas oriundos dessa atividade precisam ser melhor compreendidos, e é justamente na definição e estudo dessas dificuldades que este trabalho se dedica. O confronto da teoria de engenharia de software com observações práticas conduz para a melhor definição de quais são os problemas típicos de manutenção de software e do que se dispõe para abordá-los. Finalmente, com base no entendimento formado sobre os problemas, neste trabalho são apresentdas diretrizes para guiar a elaboração de uma disciplina específica de manutenção de software para cursos de graduação na área de computação
2022-12-06T14:47:11Z
Mateus Maida Paduelli
Projeto de um sistema para monitoramento de hardware/software on-chip baseado em computação reconfigurável
A tendência de integração de diversos componentes em um único chip tem proporcionado um aumento da complexidade dos sistemas computacionais. Tanto as indústrias quanto o meio acadêmico estão em busca de técnicas que possibilitem diminuir o tempo e o esforço gastos com a verificação no processo de desenvolvimento de hardware, a fim de garantir qualidade, robustez e confiabilidade a esses dispositivos. De forma a contribuir para várias aplicações envolvendo a verificação de sistemas, tais como busca por erros de projeto, avaliação de desempenho, otimização de algoritmos e extração de dados do sistema, o presente trabalho propõe um sistema de monitoramento baseado em computação reconfigurável, capaz de observar de forma não intrusiva o comportamento de um SoC (System-on-Chip) em tempo de execução. Tal sistema é composto por um módulo de monitoramento responsável por captar informações de execução de software em um processador embarcado e uma ferramenta de análise, chamada ACAD, que interpreta esses dados. Por meio da realização de experimentos, verificou-se que o sistema desenvolvido foi capaz de fornecer dados fiéis sobre a quantidade de acessos a memória ou a outros periféricos, tempos de execução de porções (ou a totalidade) do código e número de vezes que cada instrução foi executada. Esses resultados permitem traçar, de maneira precisa, o comportamento de um software executado no processador softcore Nios II, contribuindo assim para facilitar o processo de verificação em sistemas baseados em computação reconfigurável
2022-12-06T14:47:11Z
Guilherme Stella Ravagnani
Uma contribuição à modelagem e geração automática de conteúdos educacionais
Ambientes e sistemas de apoio ao ensino e aprendizado estão sendo adotados como mecanismos facilitadores no processo de ensino e aprendizado. No entanto, uma limitação comum à maioria desses ambientes está relacionada ao fato de concentrarem-se apenas na criação da estrutura, armazenamento e controle de acesso ao material didático, sem oferecer qualquer tipo de suporte à atividade de modelagem do conteúdo. Nesse contexto, em trabalhos anteriores foi proposta a abordagem AIM-CID - uma abordagem integrada para modelagem de conteúdos educacionais. Dando continuidade às pesquisas já realizadas, este trabalho aborda o estudo de mecanismos de apoio à modelagem de conteúdos educacionais, propondo extensões às etapas de modelagem conceitual e instrucional da abordagem AIM-CID. A ideia é incorporar à abordagem aspectos relacionados ao reuso e compartilhamento de conteúdos educacionais. Além disso, também foi considerado no escopo deste trabalho o projeto e o desenvolvimento da AIM-Tool - uma ferramenta Web, de apoio à modelagem e geração automática de conteúdos educacionais, com ênfase na construção distribuída dos modelos estendidos da abordagem AIM-CID. A ferramenta fornece mecanismos para a geração automática dos conteúdos modelados em diferentes formatos, além de tratar aspectos relacionados ao compartilhamento do material gerado, por meio da adoção do padrão LOM
2022-12-06T14:47:11Z
Vanessa Araujo Borges
Classificação semi-supervisionada baseada em desacordo por similaridade
O aprendizado semi-supervisionado é um paradigma do aprendizado de máquina no qual a hipótese é induzida aproveitando tanto os dados rotulados quantos os dados não rotulados. Este paradigma é particularmente útil quando a quantidade de exemplos rotulados é muito pequena e a rotulação manual dos exemplos é uma tarefa muito custosa. Nesse contexto, foi proposto o algoritmo Cotraining, que é um algoritmo muito utilizado no cenário semi-supervisionado, especialmente quando existe mais de uma visão dos dados. Esta característica do algoritmo Cotraining faz com que a sua aplicabilidade seja restrita a domínios multi-visão, o que diminui muito o potencial do algoritmo para resolver problemas reais. Nesta dissertação, é proposto o algoritmo Co2KNN, que é uma versão mono-visão do algoritmo Cotraining na qual, ao invés de combinar duas visões dos dados, combina duas estratégias diferentes de induzir classificadores utilizando a mesma visão dos dados. Tais estratégias são chamados de k-vizinhos mais próximos (KNN) Local e Global. No KNN Global, a vizinhança utilizada para predizer o rótulo de um exemplo não rotulado é conformada por aqueles exemplos que contém o novo exemplo entre os seus k vizinhos mais próximos. Entretanto, o KNN Local considera a estratégia tradicional do KNN para recuperar a vizinhança de um novo exemplo. A teoria do Aprendizado Semi-supervisionado Baseado em Desacordo foi utilizada para definir a base teórica do algoritmo Co2KNN, pois argumenta que para o sucesso do algoritmo Cotraining, é suficiente que os classificadores mantenham um grau de desacordo que permita o processo de aprendizado conjunto. Para avaliar o desempenho do Co2KNN, foram executados diversos experimentos que sugerem que o algoritmo Co2KNN tem melhor performance que diferentes algoritmos do estado da arte, especificamente, em domínios mono-visão. Adicionalmente, foi proposto um algoritmo otimizado para diminuir a complexidade computacional do KNN Global, permitindo o uso do Co2KNN em problemas reais de classificação
2022-12-06T14:47:11Z
Victor Antonio Laguna Gutiérrez
Projeto de um broker de gerenciamento adaptativo de recursos em computação em nuvem baseado em técnicas de controle realimentado
Computação em nuvem refere-se a um modelo de disponibilização de recursos computacionais no qual a infraestrutura de software e hardware é ofertada como um serviço, e vem se estabelecendo como um paradigma de sucesso graças a versatilidade e ao custo-efetividade envolvidos nesse modelo de negócio, possibilitando o compartilhamento de um conjunto de recursos físicos entre diferentes usuários e aplicações. Com o advento da computação em nuvem e a possibilidade de elasticidade dos recursos computacionais virtualizados, a alocação dinâmica de recursos vem ganhando destaque, e com ela as questões referentes ao estabelecimento de contratos e de de qualidade de serviço. Historicamente, as pesquisas em QoS concentram-se na solução de problemas que envolvem duas entidades: usuários e servidores. Entretanto, em ambientes de nuvem, uma terceira entidade passa a fazer parte dessa interação, o consumidor de serviços em nuvem, que usa a infraestrutura para disponibilizar algum tipo de serviço aos usuários finais e que tem recebido pouca atenção das pesquisa até o momento, principalmente no que tange ao desenvolvimento de mecanismos automáticos para a alocação dinâmica de recursos sob variação de demanda. Este trabalho consiste na proposta de uma arquitetura de gerenciamento adaptativo de recursos sob a perspectiva do modelo de negócio envolvendo três entidades, focada na eficiência do consumidor. O trabalho inspira-se em técnicas de controle realimentado para encontrar soluções adaptativas aos problemas de alocação dinâmica de recursos, resultando em uma arquitetura de broker de consumidor, um respectivo protótipo e um método de projeto de controle para sistemas computacionais dessa natureza
2022-12-06T14:47:11Z
Pedro Northon Nobile
ANALISE COMPARATIVA DE METODOS NUMERICOS DE EQUACOES ALGEBRICO-DIFERENCIAIS
Este trabalho aborda, apenas, sistemas de Equações Algébrico-Diferenciais(EAD) de índice zero ou um. Estudaremos as propriedades de ordem e convergência do método diferenças para trás (BDF) e principalmente do método de Runge-Kutta Implícito (RKI), Também, descreveremos os algoritmos provenientes destes métodos, quando aplicados em sistemas de EAD de índice zero ou um. Por último, faremos uma comparação numérica entre os método BDF e método de Runge-Kutta Implícito usando dois códigos representativos, sendo eles DAS SL e RADAUS, respectivamente.
2022-12-06T14:47:11Z
Neyva Maria Lopes Romeiro
UM GERADOR DE APLICAÇÃO PARA UM AMBIENTE DE SIMULAÇÃO AUTOMÁTICO
Este trabalho discute tópicos fundamentais relacionados com a conceituação básica sobre simulação de sistemas discretos e geradores de aplicação. O desenvolvimento de programas de simulação pode consistir em uma tarefa árdua, exigindo conhecimentos não apenas sobre o problema em estudo, como também de técnicas de modelagem, análise e implementação. A utilização de ferramentas capazes de automatizar parte significativa do trabalho envolvido no desenvolvimento de \"software\" apresenta inúmeras vantagens, principalmente em relação aos aspectos de qualidade e produtividade. Com base nos estudos realizados foi desenvolvido um gerador de aplicação para simulação de sistemas discretos, cujo principal atrativo é possibilitar ao usuário o desenvolvimento de programas de simulação sem se preocupar com detalhes da implementação do mesmo.
2022-12-06T14:47:11Z
Roberta Spolon
Um framework para simulação do fluxo de peças em sistemas flexíveis de fabricação
Um processo de modelagem e o modelo de classes de um framework para a simulação do fluxo de peças em sistemas flexíveis de fabricação são apresentados. O método de simulação implementado no framework é baseado na modelagem geométrica e funcional dos dispositivos que entram em contato direto com a peça durante o seu fluxo pelo sistema produtivo. Um índice que qualifica a utilização de cada tipo de dispositivo foi definido, o qual é utilizado para a escolha automática da melhor forma de realização do fluxo da peça no sistema de fabricação. No processo de desenvolvimento do framework propôs-se uma associação de padrões para efetuar a persistência em um banco de dados relacional das informações relativas aos pontos variáveis do framework. Essa associação de padrões é reutilizada em outras partes do framework e poderia ser útil em outros domínios, como um novo padrão de projeto para persistência de dados. O framework proposto é instanciado para simular um sistema produtivo real e sua utilização resulta no planejamento macroscópico das operações que compõem a folha de processo da peça.
2022-12-06T14:47:11Z
Ernesto Massaroppi Junior
iVIEW: infra-estrutura de visualização de informação evolucionária na web
O crescimento acelerado da Internet como meio de se obter informações dentro dos mais diversos domínios de aplicações torna necessária a incorporação de técnicas visuais que auxiliem o usuário a interagir com esse vasto universo de informações de forma eficaz e intuitiva. A Visualização de Informação é uma área de pesquisa que estuda o uso de representações visuais e interativas de informações com o objetivo de diminuir a sobrecarga cognitiva dos usuários ao interpretá-las. Os objetivos deste trabalho são investigar e implementar mecanismos que permitem ao usuário utilizar a Web para visualizar informações evolucionárias - informações que crescem ao longo do tempo e se relacionam. Diversas técnicas de visualização existentes foram pesquisadas. Foi investigada a utilização de padrões XML (Extensible Markup Language) para geração de representações gráficas através de documentos SVG (Scalable Vector Graphics). Como resultado, foi definida a infra-estratura iVIEW - infra-estrutura de Visualização de Informação Evolucionária na Web - que provê um mecanismo para visualização de informação evolucionária através do processamento de documentos estruturados.
2022-12-06T14:47:11Z
Adriane Kaori Oshiro
mCards: Ferramenta de apoio a construção de aplicativos para assistentes pessoais digitais
Tecnologias recentes, como a de assistentes pessoais digitais (PDAs), trazem uma série de questões no que tange novos recursos, limitações, possibilidades de utilização e, fatores técnicos relacionados o que frequentemente demanda amplo tempo de aprendizado. Além de lidar com essas questões, pessoas ligadas à produção de sistemas de software para PDAs precisam também conviver com a diversidade de possibilidades de desenvolvimento e, principalmente com a velocidade com que a tecnologia se modifica. Em tal conjuntura, pesquisas que auxiliem no processo de desenvolvimento, equacionando tempo gasto e resultados efetivos constituem contribuições importantes. Neste trabalho, propõe-se a ferramenta mCards, com mecanismos visuais de interação, que permite a criação de aplicações, baseadas em cards, para assistentes pessoais digitais.
2022-12-06T14:47:11Z
Danilo Rogério Boccardo
Contribuições para a extensão de informação capturada: Metadados e Web Services
A computação ubíqua é uma área de pesquisa que envolve a integração de tecnologia de forma transparente às atividades diárias das pessoas. Dois dos principais temas da computação ubíqua são aplicações de captura e acesso e a computação ciente de contexto. O primeiro tema investiga o apoio à construção de aplicações que capturam informações relativas a uma experiência ao vivo com o objetivo de possibilitar posterior acesso à informação capturada, muitas vezes na forma de documentos Web. O segundo tema visa a facilitar a interação do usuário com o computador: ela descreve uma situação em que o dispositivo computacional está ciente das condições do usuário e adapta seu procedimento baseado em informações chamadas de informações de contexto. Uma lacuna identificada em relação a aplicações de captura e acesso é que, muitas vezes, tais aplicações são desenvolvidas sem atenção para um possível reuso, por parte de outras aplicações, do material capturado. Nesse sentido, um problema tratado nesta dissertação é ausência de propostas de reuso de informações armazenadas por aplicações de captura e acesso. Em outras palavras, há a demanda pela incorporação de metadados à informação capturada, os quais viabilizam o intercâmbio e reuso das informações. Nesse cenário, o trabalho tem por objetivo propor um mecanismo que permita incorporar metadados à informação capturada de modo que: quaisquer metadados manipulados sejam padronizados; metadados possam ser associados de modo automático a permitir intercâmbio; metadados possam ser adicionados sob demanda do usuário. Como resultado das investigações, foram realizadas implementações que, partindo de informações capturadas pelo sistema de captura e acesso iClass, permitem a criação de objetos de aprendizagem de acordo com o padrão de metadados para objetos de aprendizagem SCORM tanto de modo automático como manual, fazendo uso de informações de contexto armazenadas no Web Service Context Kernel. Tanto o iClass como o Context Kernel são ambientes desenvolvidos no Laboratório Intermídia, no qual este trabalho foi realizado.
2022-12-06T14:47:11Z
Renata Paciência Godoy
Suporte ao armazenamento, recuperação, apresentação e extensão de informação proveniente de atividades de captura
A computação ubíqua tem se estabelecido como um novo paradigma de interação usuário-computador; sua essência está em auxiliar atividades humanas de modo minimamente intrusivo, permitindo a integração transparente de tecnologia no cotidiano dos indivíduos (Weiser 1991). Um tema frequentemente explorado dentro da computação ubíqua é a construção de aplicações de captura acesso (Abowd and Mynatt 2000; Abowd et al. 2002). Gerenciando um conjunto de dispositivos ubíquos que inclui lousas eletrônicas, câmeras de vídeo e microfones, essas aplicações realizam a captura das mais diferentes experiências humanas, desde reuniões de trabalho até atividades educacionais em sala de aula, com o objetivo de permitir o posterior acesso ao conteúdo capturado. O trabalho desenvolvido nesta tese tem como objetivo geral prover facilidades infra-estruturais e de serviços de modo a facilitar o desenvolvimento dessas aplicações. Trabalhos anteriores identificaram a necessidade de oferecer suporte de comunicação e funcionalidades às aplicações de captura e acesso. Esta tese tem como objetivos específicos tratar problemas associados à representação e ao gerenciamento da informação produzida pelas aplicações. Para tanto, foram definidas abstrações de alto nível capazes de facilitar o intercâmbio da informação capturada, seu armazenamento e sua apresentação na Web. O efetivo suporte à estruturação e ao gerenciamento dos dados manipulados pelas aplicações de captura e acesso demanda uma modelagem consistente das informações de contexto específicas de cada aplicação. No sentido de apoiar essa modelagem, desenvolveu-se o Coritextractor, metodologia que permite associar informações presentes no modelo conceituai das aplicações às dimensões de contexto comumente utilizadas por aplicações de captura e acesso. Entre seus resultados, o Contextractor produz esquemas XML usados como blocos arquiteturais na definição de uma infra-estrutura de software que oferece abstrações de alto nível para o desenvolvimento de aplicações de captura e acesso. Tais abstrações incluem: um modelo de desenvolvimento de aplicações baseado em componentes de software; um serviço capaz de oferecer facilidades de armazenamento e apresentação de conteúdo capturado de maneira transparente; e uma linguagem para consulta de conteúdo capturado baseada nas informações de contexto da aplicação. A metodologia de modelagem, o modelo de desenvolvimento e os serviços de gerenciamento de conteúdo, resultados desta tese, são suportados por um conjunto de softwares capazes de apoiar o desenvolvimento de aplicações voltadas a diferentes domínios de captura e acesso. As abstrações desenvolvidas possibilitaram a construção de diversas aplicações, algumas das quais vêm sendo utilizadas de maneira contínua há mais de três anos. A transformação de protótipos em aplicações robustas consiste em uma importante forma de validação do trabalho desenvolvido.
2022-12-06T14:47:11Z
Laercio Augusto Baldochi Júnior
Métodos tipo dual simplex para problemas de otimização linear canalizados
A otimização linear tem sido objeto de intenso estudo desde a publicação do método simplex de Dantzig em 1947, sendo revigorada a partir de 1984 com a publicação de um método de pontos interiores por Karmarkar, o qual demonstrou ser computacionalmente eficiente e com propriedade de convergência polinomial no estudo do pior caso. Embora muitas variantes do método simplex não tenham complexidade polinomial, elas apresentam um comportamento polinomial em termos do número de restrições do problema, para inúmeros problemas práticos, constituindo o chamado \"folclore\"\' simplex. Nos últimos anos, tem crescido o interesse pela pesquisa sobre eficiência dos métodos tipo simplex. Há uma pergunta subjacente, que talvez constitua o maior desafio da atualidade na teoria da otimização linear: \"E possível construir um algoritmo tipo simplex com complexidade polinomial? Além disso, eficiente do ponto de vista prático?\"\' A resposta a esta pergunta não deve ser trivial e talvez seja negativa, restando por enquanto a tarefa árdua da investigação da complexidade, caso a caso, dos métodos propostos. Neste trabalho aprofundamos a investigação sobre a versão mais utilizada dos métodos do tipo simplex: o método dual simplex, especializado para a forma geral (restrições canalizadas), cujo problema dual é linear por partes. A importância da forma geral não somente porque as demais formas são facilmente representadas nela, mas porque muitos problemas práticos surgem naturalmente desta maneira e técnicas de pré-processamento que buscam apertar limitantes levam a ela. Foram investigadas buscas unidimensional lineares por partes, como regras anti-ciclagem influenciam positivamente sobre o eleito \'estagnação\' decorrente de soluções degeneradas, a regra de Dantzig normalizada e algumas técnicas de resolução de sistemas lineares, incluindo o método do gradiente bi-conjugado, que alimenta grande expectativa no aumento da eficiência computacional para resolução de problemas de grande porte.
2022-12-06T14:47:11Z
Ricardo Silveira Sousa
Fast Code Exploration for Pipeline Processing in FPGA Accelerators
The increasing demand for energy efficient computing has endorsed the usage of Field-Programmable Gate Arrays to create hardware accelerators for large and complex codes. However, implementing such accelerators involve two complex decisions. The first one lies in deciding which code snippet is the best to create an accelerator, and the second one lies in how to implement the accelerator. When considering both decisions concomitantly, the problem becomes more complicated since the code snippet implementation affects the code snippet choice, creating a combined design space to be explored. As such, a fast design space exploration for the accelerators implementation is crucial to allow the exploration of different code snippets. However, such design space exploration suffers from several time-consuming tasks during the compilation and evaluation steps, making it not a viable option to the snippets exploration. In this work, we focus on the efficient implementation of pipelined hardware accelerators and present our contributions on speeding up the pipelines creation and their design space exploration. Towards loop pipelining, the proposed approaches achieve up to 100× speed-up when compared to the state-uf-the-art methods, leading to 164 hours saving in a full design space exploration with less than 1% impact in the final results quality. Towards design space exploration, the proposed methods achieve up to 9:5× speed-up, keeping less than 1% impact in the results quality.
2022-12-06T14:47:11Z
Leandro de Souza Rosa
Gestcorp: revelation of my professional identity
No summary/description provided
2022-12-06T14:43:37Z
Santos, Ynara T. Anseloni dos
Como o curso mudou minha carreira e contribuiu para a Nova Voice
No summary/description provided
2022-12-06T14:43:37Z
Alcântara, Norma
Developing people through Communication
No summary/description provided
2022-12-06T14:43:37Z
Moura, Solange