You are here

Oportunities

Áreas de Trabalho e Oportunidades para Orientação em Mestrado e Doutorado

Prezados candidatos ao mestrado e doutorado da FEEC,

Resolvi escrever esta página diante do elevado número de mensagens de e-mail perguntando por maiores informações sobre as áreas de pesquisa por mim desenvolvidas e sobre a oportunidade de orientações em mestrado e doutorado. Como percebi que as respostas que dava a essas mensagens eram sempre mais ou menos as mesmas, achei que criando uma página com um sumário dessas mensagens, poderia tornar mais eficiente o processo de comunicação com os candidatos, tornando a busca por informações a respeito algo mais ágil. Assim, tentarei colocar nas linhas que se seguem quais as áreas de pesquisa sendo desenvolvidas atualmente por nosso grupo, e quais as reais oportunidades de orientação para mestrado/doutorado em nossa faculdade, diante da alta demanda que estamos enfrentando.

Minha área de trabalho mais geral compreende os sistemas inteligentes, sendo que já desenvolvi atividades em sistemas fuzzy, redes neurais, computação evolutiva e teoria de agentes. Dentro desta área de pesquisa, somos 4 professores dentro do departamento conduzindo pesquisa. Além de mim, existe o Prof. Fernando José Von Zuben, o Prof. Fernando A.C. Gomide e o Prof. Romis Ribeiro de Faissol Attux. Todos desenvolvemos pesquisa nas áreas de sistemas inteligentes, mas eventualmente a ênfase maior em diferentes sub-ramos dessa área de pesquisa se dá de acordo com os interesses individuais de cada um. Assim, de maneira livre, diria que o Prof. Gomide tem dado maior ênfase aos sistemas fuzzy, que o Prof. Von Zuben tem dado maior ênfase às redes neurais e à computação evolutiva (com seus desenvolvimentos e elaborações, tais como a chamada engenharia imunológica, que desenvolve sistemas inteligentes baseada em conceitos oriundos da imunologia) e o Prof. Romis utiliza sistemas inteligentes em processamento de sinais. Entretanto, e é importante citar isso, essa é uma visão totalmente pessoal minha e talvez os citados professores não concordem com a minha observação (peço desculpas, neste caso). 

Com relação ao meu trabalho pessoal de pesquisa, estou atualmente concentrado em pesquisas na área de "criaturas artificiais". A área de pesquisa em “Criaturas Artificiais” virtuais têm fornecido poderosas ferramentas para diversos tipos de aplicações, de robótica móvel a jogos de computador (ver BALKENIUS 1995, GRAND 1997, 2001). São diversos os desafios enfrentados pela área. Um dos problemas mais recorrentes é o da navegação autônoma em ambientes complexos (CHAMPANDARD 2003). Esse problema surge tanto no caso de robôs móveis, que precisam decidir sobre suas trajetórias , a partir de um ponto inicial até a obtenção de uma meta, sem colidir com obstáculos (eventualmente minimizando a distância percorrida e/ou o tempo de percurso), quanto no desenvolvimento de oponentes inteligentes, em jogos de computador, onde sistemas de controle inteligente devem decidir sobre as ações que um agente deve perpetrar para proporcionar um bom entretenimento ao usuário do sistema, simulando com realismo o comportamento de um oponente de forma que este pareça similar ao comportamento de um jogador humano.

São diversas as abordagens capazes de lidar com esse problema, dependendo dos aspectos que se deseja enfatizar. Uma possível forma de sistematizá-lo é por meio da construção de criaturas artificiais, imersas em certos ambientes, com capacidade para deslocamento e navegação neste ambiente, e realizando ações nele (BLUMBERG 1996). Soluções clássicas são encontradas em profusão em inteligência artificial (RUSSELL & NORVIG, 1995), e envolvem normalmente máquinas de estados, algoritmos de busca e, eventualmente, programação em lógica (CHAMPANDARD 2003; RUSSELL & NORVIG, 1995). Algoritmos mais avançados podem se utilizar de redes neurais, lógica fuzzy ou computação evolutiva (CHAMPANDARD 2003). O tópico associado a navegação autônoma é uma ilustração exemplar do tratamento imposto a diversas habilidades cognitivas, por meio de criaturas artificiais.

Apesar da profusão de soluções para o tratamento de problemas simples, quando se deseja simular e implementar habilidades cognitivas complexas, as alternativas, modelos e opções metodológicas tornam-se muito mais complicadas. Linguagem, memória episódica, atenção e consciência são as competências, ou habilidades cognitivas, que nos propomos a simular através de criaturas artificiais virtuais. Elas constituem, em seu conjunto, tarefas consideradas cruciais para a construção de criaturas que exibem comportamento adaptativo, flexível, e inteligente (QUEIROZ et al 2007; LOULA et al 2007, GUDWIN & QUEIROZ 2007).

Apesar de diversos avanços nas pesquisa em criaturas artificiais, sabe-se bem que diversas habilidades cognitivas complexas são, até hoje, modeladas inadequadamente, ao ponto de não serem emuladas em criaturas artificiais. Estão, entre estas habilidades, aquelas citadas previamente, e objetos de nossos esforços.

Entretanto, esforços preliminares aparecem recentemente, em grande quantidade, na literatura, sobre estas habilidades. Além de conhecimentos acumulados em psicologia e neurociências sobre a memória episódica (MAYES & ROBERTS 2001; WHEELER et.al 1997), começam a surgir modelos computacionais do fenômeno (GLUCK et.al. 2003; SHASTRI 2001), ainda não implementados em criaturas artificiais, mas, certamente, pontos importantes de partida para o que pretendemos fazer. Com relação à emergência de linguagem, muitos estudos têm fornecido resultados promissores (STEELS, 2000; STEELS & KAPLAN, 2000; JUNG & ZELINSKY 2000; STAAB, 2002, CANGELOSI 2001,VOGT & COUMANS 2003; ROY 2005; QUEIROZ 2007). Em termos sumários, agentes interagem entre-si (como co-específicos), e com humanos, para adquirir conhecimento semântico. Além disso, surge, crescentemente, na literatura, propostas diversas para a solução do problema da fundamenção do símbolo, baseadas na semiótica (PREM 1995, THOMPSON 1997, SUN 2000, VOGT 2002, VOGT 2003, 2006, RIBEIRO et al 2007, GOMES et al in press), seguramente um dos mais controversos problemas da IA.

Com relação à questão da consciência, existem diversas abordagens promissoras (ATKINSON et.al. 2000). Por exemplo, o grupo de Stan Franklin, da Universidade de Memphis, desenvolveu, baseado na teoria de consciência de (BAARS 1997), uma sofisticada teoria sobre consciência em agentes artificiais (FRANKLIN & GRAESSER 1999; FRANKLIN 2003; BOGNER et.al. IN PRESS). O grupo de Ron Sun, da Universidade do Missouri, propõe uma arquitetura cognitiva que ele defende como “consciente” (SUN 2005). Mais recentemente, (SUN & FRANKLIN 2007) fazem uma revisão sobre o estudo da consciência em agentes computacionais. O italiano Riccardo Manzotti é conhecido por ter desenvolvido uma abordagem original sobre este assunto (MANZOTTI 2004).

O principal objetivo de nossos esforços atuais de pesquisa é investigar os fenômenos de emergência de linguagem, atenção, memória episódica, e consciência, em criaturas artificiais.

Relativamente aos estudos sobre memória episódica, pretende-se que as criaturas sejam capazes de perceber objetos e qualidades destes objetos, armazenando as configurações e mudanças que possam ocorrer no tempo. Assim, as criaturas devem ser capazes de modelar e mapear seu ambiente no instante presente, e de “lembrar” da configuração do mundo no passado, e, eventualmente, de detectar uma sequência de mudanças temporais que transformaram a configuração do ambiente, no passado, na configuração presente. Observa-se que para que um mecanismo adequado de memória episódica possa ser implementado, a atenção é crucial. Pretende-se que a criatura seja capaz de criar uma “linha do tempo”, em que possa localizar eventos e situações experienciadas e, de alguma forma, se referir a elas (referência semântica funcional).

Com relação aos experimentos sobre emergência de linguagem, pretende-se elaborar experimentos em que a simultaneidade temporal, ou espacial, entre objetos, e eventos entre objetos, possa ser associada a estruturas significativas (e.g. “termos linguísticos”), de maneira incremental. Também neste tópico, a questão da atenção se mostra fundamental para que associações linguísticas possam ser construídas. Seguindo as tendências na área, pretendemos desenvolver experimentos que tanto façam a associação de palavras isoladas a objetos, ou eventos do ambiente como, presumivelmente, a sequências de palavras com significado (uma linguagem verbal, como por exemplo ... “bloco vermelho moveu-se de cima para baixo”). Além disso, para permitir que as criaturas possam desenvolver símbolos, a partir da criação de convenções, pretendemos dotá-las de mecanismos de indicação. Esses mecanismos são importantes para que o processo de formação de símbolos seja acelerado. Por meio de indicadores, as criaturas podem indicar objetos do ambiente e, da mesma forma, identificar os objetos indicados por outras criaturas. Para tanto, pretende-se desenvolver um mecanismo de atenção em que uma criatura artificial consiga distinguir, entre os objetos identificados no ambiente, objetos inanimados, com os quais poderá tentar algum tipo de interação motora (empurrar, puxar, pegar, destruir, etc), e objetos “inteligentes”, ou, em outras palavras, outras criaturas, com as quais iniciar e manter interações comunicativas.

Relativamente aos experimentos sobre consciência, um primeiro passo é replicar experimentalmente as arquiteturas cognitivas encontradas na literatura, submetê-las a críticas, e fornecer complementação experimental com os módulos de memória episódica e aquisição e desenvolvimento de linguagem. De acordo com Block (ATKINSON ET.AL. 2000), a palavra consciência pode ser utilizada para se referir a diferentes fenômenos. Desta forma, Block divide consciência dentre P-consciência (consciência fenomenal), A-consciência (consciência de acesso), M-consciência (consciência de monitoramento) e S-consciência (auto-consciência). A P-consciência envolve o mais severo problema, em ciências cognitivas e filosofia da mente – o problema do Qualia, ou experiência qualitativa. Não pretendemos realizar qualquer tipo de experimento envolvendo P-consciência, uma vez que está cercado de controvérsia e polêmica. Entretanto, a A-consciência, ou consciência de acesso, nos parece plausível, em termos de implementação, em sistemas artificiais (ATKINSON ET.AL. 2000). A A-consciência envolve a consciência que uma criatura tem dos objetos que se encontram no ambiente. Envolve, portanto, a criação de um modelo objetivo do mundo, que pode ser utilizado para orientação e para o planejamento de atividades. Da mesma forma, a M-consciência nos parece de implementação plausível. A M-consciência envolve a consciência que uma criatura tem de seus próprios pensamentos, ou seja, de seus próprios processos cognitivos. Pode incluir a formação de planos e sua execução. Por fim, a S-consciência envolve a capacidade da criatura de reconhecer a si mesma e se distinguir de outros objetos do mundo. Também nos parece de implementação plausível. Outros modelos de consciência, como, por exemplo, o modelo de Baars (1997) têm uma visão bastante diferente do que seja consciência. Baars diferencia processos conscientes de inconscientes, no sentido em que os processos chamados de conscientes são aqueles que ocorrem dentro de um espaço de trabalho global, ou seja, que é acessível a partir de todas as outras partes do sistema. É uma visão radicalmente diferente do que seja consciência. Nossa intenção é testar diferentes insights nesse sentido e verificar quais seriam as vantagens e/ou desvantagens de cada abordagem.

Desdobramentos tecnológicos, associados aos experimentos desenvolvidos, estão previstos, ao menos em termos prospectivos, especialmente nas áreas ligadas a jogos de computadores, em que temos experiência em termos de modelagem e simulação (TATAI 2003).

Os trabalhos experimentais que pretendemos realizar baseiam-se em formatos e modelos bastante conhecidos em Vida Artificial e Sistemas Inteligentes, que envolvem a noção de mundo virtual, onde as criaturas devem operar (ver CHAMPANDARD 2003).

Inicialmente, pretendemos iniciar os protocolos com experimentos em que os mundos virtuais são rigorosamente simplificados. Tais mundos devem ser basicamente bi-dimensionais, onde diferentes objetos se posicionam. Esses objetos são polígonos diversos, que podem possuir diferentes propriedades, sensoreadas e percebidas pelas criaturas artificiais. As criaturas podem interagir com esses objetos de diferentes modos. Nos experimentos mais simples, elas apenas procuram criar um modelo interno do mundo, identificar obstáculos ou objetos almejados e se deslocar de maneira segura , visando atingir um certo número de objetivos estabelecidos. Em experimentos mais sofisticados, as criaturas poderão interagir com os objetos do mundo alterando-os, destruindo-os ou criando novos objetos. Pretendemos efetuar experimentos em que somente uma criatura artificial esteja presente, e experimentos com múltiplas criaturas, de tal forma que possa existir alguma interação entre elas.

Nosso grupo vem desenvolvendo trabalhos de pesquisa com criaturas artificiais já há algum tempo (Gudwin et.al. 2002; Loula et.al. 2003; Queiroz & Gudwin 2003; Tatai & Gudwin 2003; Loula et.al. 2004; Loula et.al. 2005, Queiroz et.al. 2006; Gudwin & Queiroz 2007, Toro et.al. 2007). Neste escopo, desenvolvemos trabalhos de perfil tecnológico, voltado para aplicações, tais como (Tatai & Gudwin 2003; Toro et. al. 2007), quanto trabalhos mais científicos, tais como (Loula et.al. 2003; Queiroz & Gudwin 2003; Loula et.al. 2004; Loula et.al. 2005, Queiroz et.al. 2006, Ribeiro et al 2007, Gomes et al no prelo). Nestes trabalhos, temos um foco bastante acentuado na questão da emergência de comunicação e linguagem, a partir da interação entre criaturas artificiais virtuais. Em nossos esforços atuais de pesquisa, os tópicos a serem investigados devem incluir atenção, memória episódica e consciência.

Mais recentemente, temos focado na área de arquiteturas cognitivas, estudando diferentes arquiteturas cognitivas (Samsonovich 2010; Goertzel et.al. 2014; Kotseruba et.al. 2016) e desenvolvendo o CST, um toolkit para a construção de arquiteturas cognitivas. A maioria dos últimos trabalhos de nosso grupo vêm sendo empregados nesse esforço (Raizer et.al.  2012; Paraense et.al. 2016). 

Bem, ... , esse é um sumário das minhas atividades de pesquisa e do meu grupo. Minha recomendação para você, candidato a uma vaga em nossa pós-graduação e que tenha se motivado com a explanação apresentada, é a seguinte. Dê uma olhada na minha home page, onde discorro um pouco mais sobre minha área de trabalho. Principalmente, examine os artigos que temos publicado (a grande maioria disponível para download), e veja se a área de pesquisa com que estamos trabalhando, de maneira bem específica e pragmática, lhe interessa. Veja, principalmente as páginas do "Computational Semiotics Group":

Em seguida, caso se identifique com o tema (algo do tipo ... "é exatamente isso que quero fazer"), venha portanto a me contactar por e-mail, dando maiores informações sobre o seu currículo e seu histórico escolar. Estamos atualmente com nossa quota de orientações regulares quase toda preenchida, embora existam mecanismos alternativos, pelo meio dos quais podemos estar viabilizando uma orientação, caso a área de trabalho seja realmente aquela que você pretende seguir e a quota de orientações regulares seja completamente preenchida. Felizmente, a FEEC admite a matrícula dos chamados alunos especiais, que não estão vinculados em princípio ao programa, e a nenhum orientador em especial. Assim, todos os créditos necessários ao programa podem ser obtidos como aluno especial, e até que uma vaga apareça como aluno regular, você poderá ir adiantando seus créditos. Uma vez que você ingresse como aluno regular, esses créditos passam então a ser convalidados e o processo segue naturalmente. O único inconveniente que existe é que como aluno especial, você não pode ter uma bolsa de estudos, e assim terá de encontrar algum meio alternativo para sua subsistência. Entretanto, apesar dessa dificuldade, isso não inviabializaria seus estudos, caso essa seja realmente sua meta de vida. Caso essa situação se modifique nos próximos semestres, essa página será alterada para representar as novas condições.

Espero que a leitura desta página tenha sido de bom proveito para elucidar suas questões e, caso tenha comentários ou sugestões de questões que não foram aqui respondidas e que você julgue que poderiam ser pertinentes, terei o maior prazer em estar recebendo as mesmas. Neste caso, contacte-me por e-mail.

Obrigado por seu tempo e paciência, esperando contar no futuro com sua participação em nosso grupo.

Ricardo R. Gudwin
DCA-FEEC-UNICAMP

 

Referências

 

ATKINSON ET.AL. (2000) - Consciousness: mapping the theoretical landscape - Trends in Cognitive Sciences - Volume 4, Issue 10 , 1 October 2000, Pages 372-382.

BAARS, B.J. (1997) - In the Theatre of Consciousness: Global Workspace Theory, A Rigorous Scientific Theory of Consciousness - Journal of Consciousness Studies, 4, No. 4, 1997, pp. 292-309.

BALKENIUS, C. (1995). Natural Intelligence in Artificial Creatures. Lund University Cognitive Science.

BLUMBERG, B. M. (1996). Old Tricks, New Dogs: Ethology and Interactive Creatures, Tese de Doutorado, MIT.

BOGNER, M., J. MALETIC, AND S. FRANKLIN (IN PRESS). ConAg: a reusable framework for developing "conscious" software agents. The International Journal on Artificial Intelligence Tools.

CANGELOSI, A. (2001) - Evolution of Communication and Language using Signals, Symbols and Words - IEEE Transactions on Evolutionary Computation, v. 5, n.2, pp. 93-101, 2001.

CHAMPANDARD, A.J. (2003) - AI Game Development – Synthetic Creatures with Learning and Reactive Behaviors - New Riders Games; 1st edition (October 31, 2003)

DEAN, J. (1998) Animats and what they can tell us. Trends in Cognitive Sciences, v. 2, p. 60-67, February 1998.

EL-HANI, C.N., QUEIROZ, J., EMMECHE, C. (2006a). A semiotic analysis of the genetic information system. Semiotica 160 (1):1-68.

FRANKLIN, S. (2003) - IDA: A Conscious Artifact? Journal of Consciousness Studies 10:47-66

FRANKLIN, S., AND A. GRAESSER. (1999). A Software Agent Model of Consciousness. Consciousness and Cognition 8:285-305.

GLUCK, M.A.; MEETER, M.; MYERS, C.E. (2003) - Computational models of the hippocampal region: linking incremental learning and episodic memory - Trends in Cognitive Sciences Vol.7 No.6 June 2003

GOMES, A., EL-HANI, C., GUDWIN, R., & QUEIROZ, J. (prelo) Towards the emergence of meaning processes in computers from Peircean semiotics. Mind & Society.

GOERTZEL, B.; PENNACHIN, C.; GEISWEILLER, N. (2014) - Brief survey of cognitive architectures. In: Engineering General Intelligence, Part 1 . [S.l.]: Springer, 2014. p. 101–142

GRAND, S. (1997) - Creatures: An Exercise in Creation – IEEE Expert, Intelligent Systems & Their Applications, July/August 1997, pp. 19-24.

GRAND, S. (2001) - Creation: Life and How to Make It - Harvard University Press, 2001.

GUDWIN, R.;, LOULA, A.; RIBEIRO, S.;, ARAÚJO, I.; QUEIROZ, J. (2002) -A Proposal for a Synthesis Approach of Semiotic Artificial Creatures - II Workshop on Computational Intelligence and Semiotics, 10.11 - October 2002, São Paulo, SP, Brazil.

JUNG, D. & ZELINSKY, A. (2000). Grounded symbolic communication between heterogeneous cooperating robots. Autonomous Robots journal 8(3): 269-292.

KOTSERUBA, Iuliia; GONZALEZ, Oscar J. Avella; TSOTSOS, John K. (2016) A Review of 40 Years of Cognitive Architecture Research: Focus on Perception, Attention, Learning and Applications. arXiv preprint arXiv:1610.08602, 2016.

LOULA, A.; GUDWIN, R.; QUEIROZ, J. (2003) - Synthetic Approach of Symbolic Creatures - S.E.E.D. Journal (Semiotics, Evolution, Energy, and Development), Volume 3, No. 3, December 2003, SEED 2003 (3), p. 125-133

LOULA, A., GUDWIN, R. & QUEIROZ, J. (2004a) Symbolic Communication in Artificial Creatures: an experiment in Artificial Life. Lecture Notes in Artificial Intelligence, 3171, 336-345.

LOULA, A., GUDWIN, R., RIBEIRO S., ARAÚJO, I. & QUEIROZ, J. (2004b) A proposal for a synthetic approach of semiotic artificial creatures. In de Castro, L.N. & Von Zuben, F.J. (eds). Recent Developments in Biologically Inspired Computing (pp 270-300). Hershey: Idea Group Inc. (IGI).

LOULA, A.; GUDWIN, R.; QUEIROZ, J. (2004c) - Symbolic Communication in Artificial Creatures: an experiment in Artificial Life In: II Workshop de Teses e Dissertações em Inteligência Artificial, WTDIA'04, 2004, São Luis – MA. Anais do II Workshop de Teses e Dissertações em Inteligência Artificial, WTDIA'04. , 2004. p.11 - 20

LOULA, A., GUDWIN, R. & QUEIROZ, J. (2006) Artificial Cognition Systems. Idea Group Inc. (IGI).

LOULA, A.; GUDWIN, R.; EL HANI, C.; QUEIROZ, J. (2005)- The Emergence fo Symbol-Based Communication in a Complex system of Artificial Creatures - Proceedings of the 2005 IEEE International Conference on Integration of Knowledge Intensive Multi-Agent Systems - KIMAS'05, 18-21 April 2005, Waltham, MA, USA, pp. 279-284.

MANZOTTI R. (2004), A process-based architecture for a an Artificial Conscious Being, in Seibt, J. (ed.), “Process Theories. Crossdisciplinary Studies in Dynamic Categories”, Kluwer Academics Publisher, The Netherlands, 2004.

MAYES, A.R. ROBERTS, N. (2001) - Theories of episodic memory - Philosophical Transactions of the Royal Society. Series B, Biological Sciences, Vol. 356, N. 1413/September 29, 2001, pp. 1395-1408, doi:10.1098/rstb.2001.0941

MEYER, J.A., WILSON, S.W. (1991) - From Animals to Animats: Proceedings of the First International Conference on Simulation of Adaptive Behavior - MIT Press, 1991.

PARAENSE, A. L.; RAIZER, K.; PAULA, S. M. de; ROHMER, E.; GUDWIN, R. R. (2016) The cognitive systems toolkit and the CST reference cognitive architecture. Biologically Inspired Cognitive Architectures, v. 17, p. 32 – 48, 2016. ISSN 2212-683X

PREM, E. (1995) - Symbol Grounding and Transcendental Logic in Niklasson L. & Boden M.(eds.), Current Trends in Connectionism, Lawrence Erlbaum, Hillsdale, NJ, pp. 271-282, 1995.

QUEIROZ, J. (2003). Symbol-based communication in non-human primates: a C.S.Peirce's semiotic analysis. Rev. Bras. Psiquiatr. Dec (25/2): 2-5.

QUEIROZ, J. (2004). Semiose Segundo C.S.Peirce. EDUC.

QUEIROZ, J. (2006) Introdução à divisão 3-tricotômica de signos de C. S. Peirce. Cadernos de Estudos Linguisticos (Instituto de Estudos de Linguagem/UNICAMP), 46 (2): 271-282;

QUEIROZ, J. (2007) Sobre a síntese de sistemas e criaturas semióticas. In: Queiroz, J., Loula, A., Gudwin, R. (Eds.) Computação, Cognição Semiose. EDUFBA: Salvador. p.2-7.

QUEIROZ, J. ; EL-HANI, C. N. (2006) Semiosis as an Emergent Process. Transactions Of The Charles S Peirce Society 42(1):78-116.

QUEIROZ, J., EMMECHE, C. & EL-HANI, C. (2005). Information and semiosis in living systems: a semiotic approach. Semiotics, Evolution, Energy, and Development 1: 60-90.

QUEIROZ, J.; GUDWIN, R. (2003) - Computational Intelligence and Semiotics – On the Synthesis of Semiosis in Artificial Systems and Creatures - Editorial - Special Issue of S.E.E.D. Journal (Semiotics, Evolution, Energy, and Development), Volume 3, No. 3, December 2003.

QUEIROZ, J; GUDWIN, R.; LOULA, A. (2006) - Semiótica sintética -- sobre a síntese de criaturas simbólicas artificiais. In Cognito 3(2) 2006. ISSN 1267-8015

QUEIROZ, J. & MERRELL, F. (Eds) (2005). Abduction – between subjectivity and objectivity. Semiotica 153(1/4).

QUEIROZ, J. & MERRELL, F. (2006). Semiosis and pragmatism: Toward a dynamic concept of meaning. Sign Systems Studies 34(1): 37-66.

QUEIROZ, J. & RIBEIRO, S. (2002). The biological substrate of icons, indexes and symbols in animal communication: a neurosemiotic analysis of Vervet monkey alarm-calls. In Shapiro, M. (Ed). The Peirce Seminar Papers 5. Berghahn Books. pp.69-78.

RAIZER, K.; PARAENSE, A. L. O.; GUDWIN, R. R. (2012) A Cognitive Architecture with Incremental Levels of Machine Consciousness Inspired by a Cognitive Neuroscience -  International Journal of Machine Consciousness, World Scientific Pub Co Pte Lt, v. 04, n. 02, p. 335–352, dec 2012.

RIBEIRO, S., LOULA, A., ARAUJO, I., GUDWIN, R., QUEIROZ, J. (2007) Symbols are not uniquely human. Biosystems 90(1): 263-272.

ROY, D. (2005) - "Grounding words in perception and action: computational insights" - Trends in Cognitive Science - 9(8): 389-396.

RUSSEL, S.J AND NORVIG, P. (1995) - Artificial Intelligence: A Modern Approach. Prentice Hall.

SAMSONOVICH, A. V. (2010) Toward a unified catalog of implemented cognitive architectures. in Biologically Inspired Cognitive Architectures 2010: Proceedings of the First Annual Meeting of the BICA Society, pp. 195–244, IOS Press.

SHASTRI, L. A (2001) A computational model of episodic memory formation in the hippocampal system – Neurocomputing 38-40:889--897, 2001

STAAB, S. (2002) Emergent semantics. IEEE Intelligent Systems, v. 17, n. 1, p. 78-79, January/February 2002.

STEELS, L. (2000) - Language as a complex adaptive system. In: SCHOENAUER, M. (Ed.)Proceedings of PPSN VI. Berlin, Germany: Springer-Verlag, 2000. (Lecture Notes in Computer Science).

STEELS, L.; KAPLAN, F. (2000) Aibo's first words: The social learning of language and meaning. Evolution of Communication, v. 4, n. 1, p. 3-32, 2000.

SUN, R. (1999), Computational models of consciousness: an evaluation. - Journal of Intelligent Systems, Vol.9, pp.507-562. 1999.

SUN, R.. (2000) Symbol grounding: A new look at an old idea. Philosophical Psychology, 2000 Jun, v13 (n2):149-172

SUN, R. (2005) - The CLARION cognitive architecture: Extending cognitive modeling to social simulation In: Ron Sun (ed.), Cognition and Multi-Agent Interaction. Cambridge University Press, New York.

SUN, R. AND FRANKLIN, S. (2007). Computational models of consciousness: A taxonomy and some examples. In Cambridge handbook of consciousness, ed. P D Zelazo and Morris Moscovitch:151­174. New York: Cambridge University Press.

TATAI, V., GUDWIN, R. (2003) - Using a Semiotics-Inspired Tool for the Control of Intelligent Opponents in Computer Games - Proceedings of the IEEE International Conference on Integration of Knowledge Intensive Multi-Agent Systems - KIMAS'03, 30 September - 04 October, 2003, Cambridge, MA, USA, pp. 647-652. ISBN 0-7803-7958-6.

Thompson E. (1997) Symbol grounding: a bridge from artificial life, to artificial intelligence. Brain and Cognition, 1997 Jun, 34(1):48-71

TORO, P.; GUDWIN, R.; MISKULIN, M. (2007) - Agentes Emocionais Hedonistas para Comportamento Autônomo, (a ser publicado no) VIII SBAI - Simpósio Brasileiro de Automação Inteligente, 8 a 11 de outubro, Florianópolis - SC (2007)

VOGT, P. (2002) - The physical symbol grounding problem - Cognitive Systems Research 3 (2002) 429–457.

VOGT, P. (2003) - Anchoring of semiotic symbols - Robotics and Autonomous Systems 43 (2003) 109–120.

VOGT, P. AND COUMANS, H. (2003) Investigating social interaction strategies for bootstrapping lexicon development - Journal of Artificial Societies and Social Simulation 6(1)

VOGT, P. (2006). Language evolution and robotics: issues on symbol grounding and language acquisition. In Loula, A., Gudwin, R. & Queiroz, J. (Eds) Artificial Cognition Systems. Idea Group. pp.176-209.

WHEELER, M.A.; STUSS, D.T.; TULVING, E. (1997) - Toward a Theory of Episodic Memory: The Frontal Lobes and Autonoetic Consciousness - Psychological Bulletin – Vol 121(3), May 1997, p 331–354.

 

Theme by Danetsoft and Danang Probo Sayekti inspired by Maksimer