O que é singularidade tecnológica e o que eu tenho a ver com isso?

Singularidade tecnológica

Você sabe o que é singularidade tecnológica? Talvez, você não saiba definir esse conceito em poucas palavras, mas muito provavelmente, você já teve algum tipo de contato com o tema. Esse conceito está presente em diferentes filmes de ficção, na literatura futurista, documentários sobre os avanços da ciência, enfim, não seria exagero supor que você, em algum momento, já foi exposto a esse conhecimento, mesmo sem ter consciência disso. Mas, afinal, o que é singularidade tecnológica e o que você tem a ver com isso? Acredite, todos nós estamos de alguma maneira conectados a ela, sofrendo sua influência diariamente, muito mais do que imaginamos. O objetivo deste artigo é apresentar quais são os avanços e características da teoria da singularidade tecnológica. Você vai entender como a inteligência artificial se desenvolveu ao longo do tempo e quais as previsões de sua evolução para o futuro. O que é a singularidade tecnológica? Singularidade é um termo que já é utilizado pelas ciências há muito tempo, mais corriqueiramente pela ciência física. A sua aplicabilidade se refere às situações em que o raciocínio humano não consegue mais, digamos assim, conceber a estrutura e o funcionamento de certos fenômenos naturais e exprimi-los por meio de teoremas e equações matemáticas plausíveis. O exemplo mais clássico do seu uso pela física moderna é no estudo da composição do interior dos buracos negros. Nesse extremo físico de alta densidade, é impossível descrever, com algum grau de certeza, qual é o comportamento das leis naturais conhecidas. Sendo assim, podemos entender que o uso do termo singularidade exprime certa incapacidade humana de compreender e prever o funcionamento de um fenômeno. Com o tempo, os futurologistas passaram a lançar mão dessa ideia científica para exprimir as suas previsões sobre um determinado momento histórico, não muito distante, em que ocorrerá a superação do raciocínio humano pela tecnologia. Grosso modo, é sobre isso que a singularidade tecnológica diz respeito. Um provável ponto na história, em que as máquinas, ou melhor, a inteligência artificial, vai extrapolar o nível de conhecimento e habilidades cognitivas dos seres humanos. Adivinhações acerca do futuro não são área de competência do estudo científico. O máximo que pesquisadores se arriscam a fazer é emitir opiniões sobre probabilidades que sejam mais ou menos embasadas. No entanto, é curioso e até mesmo impressionante constatar o consenso existente em torno do surgimento da singularidade tecnológica. Não são poucos os cientistas que são taxativos ao afirmar que não se trata de uma questão de “se” um dia a singularidade surgir, mas sim, uma questão de “quando” ela vai ocorrer. Segundo esses pesquisadores, o avanço acelerado da tecnologia e sua integração com as mais variadas áreas do conhecimento levaram, inevitavelmente, à concretização desse momento ímpar da história. À medida que o progresso científico avança em velocidades exponenciais a cada ano, também fica cada vez mais difícil para os cientistas teóricos e futurologistas conceber até que ponto essa revolução tecnológica pode influenciar nossa espécie. Todo o nosso estilo de vida como o conhecemos, nossa civilização, nossas leis, enfim, o próprio conceito sobre o que é a humanidade está passível de ser revisto com o advento da singularidade. Apesar de certo grau de consenso entre a comunidade científica, é preciso deixar claro que isso tudo é apenas uma teoria. Existem pesquisadores que afirmam não acreditar na possibilidade da existência de algo como a singularidade. O máximo que visualizam para o futuro são maiores capacidades de velocidades de processamento. Para estes, ainda que assumam a plausibilidade teórica do tema, é mais provável que o desenvolvimento da tecnologia encontre obstáculos intransponíveis que inviabilizam o seu desenvolvimento até esse estágio de singularidade. A baixa demanda por sistemas mais avançados poderia desestimular o investimento em pesquisas relacionadas à IA (Inteligência Artificial), por exemplo. Também é possível que outras catástrofes de ordem econômica ou política, como guerras e problemas ambientais, destruam a humanidade e a sua ordem social antes mesmo que seja possível algo como a singularidade surgir. Enfim, segundo esses pesquisadores, existe uma grande diferença entre acreditar que algo é possível no campo das ideias e sua aplicabilidade prática. A simples formulação teórica não significa que esta seja possível no mundo real. Frente a tantas variáveis que podem interferir no desenvolvimento e posterior surgimento da singularidade tecnológica, a sua não existência também se torna algo plausível. Como é a história do conhecimento? A curiosidade sempre foi o motor propulsor do conhecimento humano. A observação dos fenômenos da natureza gera indagações a respeito da finalidade da vida e a busca por um senso de propósito. O espanto ante ao desconhecido levou o ser humano à formulação de explicações para os fenômenos que o cercava. A criação de mitos foi, durante muito tempo, a principal maneira pela qual se obtinham explicações e se encontrava propósito ante essas inquietações próprias do seu ser. Na antiguidade clássica, com o desenvolvimento da filosofia, houve a elevação do corpo de conhecimentos a um novo patamar, mesmo que ainda impregnado pelos mitos de outrora. Entre os pensadores dessa era, muitos são citados até hoje pelas suas contribuições à física, astronomia, matemática e filosofia. São eles: Tales de Mileto, Sócrates, Platão e Aristóteles. Ao longo da história, o avanço produtivo e as necessidades tecnológicas também impulsionaram o desenvolvimento das ciências. Já na Europa, o Iluminismo surge como alternativa às visões míticas do universo e dão lugar a uma cosmologia mais fundamentada na razão. Expoente máxima desse momento histórico é a descrição do discurso sobre o método de René Descartes e o surgimento das enciclopédias, que procuravam condensar e divulgar os conhecimentos da época ao máximo de pessoas. Nos séculos subsequentes, o progresso tecnológico e científico tornou-se a principal característica do desenvolvimento humano. Desde de surgimento da ciência no século VI com Tales de Mileto, até os avanços de Galileu Galilei, Isaac Newton, Alexander Fleming e Einstein, mudanças profundas em termos econômicos e políticos surgiram nos mais diferentes países, graças à explosão tecnológica da revolução industrial e o desenvolvimento do livre mercado. Em 1950, o matemático húngaro John Von Neumann incutiu a

Tecnologias emergentes e a ciência da inovação

a ciencia da inovacao

A ciência da inovação: A busca contínua por inovação em produtos, modelo de negócio, processos e o investimento constante em pesquisa e desenvolvimento não são opções descartáveis no mundo dos negócios. O acirramento da competição exige cada vez mais das empresas, e o uso de tecnologias emergentes tem se mostrado um fator diferenciador primordial. As empresas que desejam perpetuar-se em seus ambientes de atuação não podem se contentar apenas em eficiência. A vantagem competitiva agora é construída com base em sua capacidade de monitorar, prever e superar os movimentos do seu mercado lançando mão de novas tecnologias. O que são tecnologias emergentes São tecnologias de grande potencial de impacto e crescimento. Em sua maioria, já apresentam aplicações práticas, mas são pouco exploradas. Essas tecnologias geram grande interesse por parte de investidores e empreendedores, e na prática, podem mudar a forma como as empresas operam já nos próximos 5 ou 10 anos. Os benefícios da utilização dessas tecnologias não representam apenas ganho de eficiência como a automação, mas também ampliam as possibilidades de atuação da empresa como um todo. São possíveis novos modelos de negócio, novas propostas de valor, percepções de marca, experiências de compra, novos arranjos produtivos, etc. A seguir listamos 3 exemplos das principais tecnologias emergentes com maior crescimento e evidência hoje. Você conhecerá o conceito e os principais benefícios para a assertividade dos negócios. IA — Inteligência Artificial Resumidamente, a IA almeja reproduzir as capacidades cognitivas humanas em máquinas. As subáreas desenvolvidas a partir daí variam desde tecnologias de visão computacional até o aprendizado de máquinas e a computação cognitiva, por exemplo. Com elas, é possível que máquinas reconheçam padrões, imagens, fala e refinem seu próprio algoritmo. Nos negócios, sistemas de IA podem ser aplicados no controle e na reposição de estoques, no controle da qualidade, na eliminação de processos de checkout em caixas no setor de varejo, em sistemas de segurança e muitos outros. IoT — Internet of Things A internet das coisas permite a conectividade de objetos físicos com a internet, possibilitando a coleta e transmissão de dados em tempo real. Big data e analytics São soluções que trabalham grandes quantidades de dados com o intuito de retornar informações mais refinadas, que sirvam de subsídios para a tomada de decisões. Curva de adoção Nem tudo são flores na aplicação de novas tecnologias no mundo dos negócios. Apenas a utilização de uma tecnologia emergente não garante o sucesso de um empreendimento. Antes é preciso entender que toda inovação tecnológica segue uma curva de adoção por parte do público. Sendo assim, o tempo para adoção de um novo produto dependerá do seu mercado alvo e das estratégias de comunicação e marketing adotadas. O professor de psicologia Everett M. Rogers desenvolveu, em 1962, a teoria chamada de difusão de inovação, conhecida como curva de adoção. Seu objetivo era descrever o comportamento relacionado à adesão às inovações. Rogers desenvolveu um modelo que pode ser utilizado em diferentes sociedades, no qual os indivíduos são classificados em 5 perfis diferentes, segundo a sua maior ou menor velocidade para aderir a uma inovação. São eles: inovadores, primeiros adeptos, maioria inicial, maioria tardia e retardatários. O estudo desses perfis e o desenvolvimento de estratégias de marketing específicas para cada momento da curva de adoção são essenciais para o sucesso da difusão das inovações pretendidas por um negócio. A ciência da inovação Na visão do professor Clayton Christensen, da Harvard Business School, inovações de ruptura transformam produtos outrora inacessíveis e economicamente inviáveis em grandes sucessos de vendas. Isso contraria o senso comum de que a inovação se resume apenas a novas invenções ou habilidades criativas. A ciência da inovação busca sistematizar a forma como as inovações são geridas nas organizações, baseando-se em informações e experiências passadas e no desempenho do seu mercado (clientes, concorrentes, benchmarks). Mais do que apenas um processo interno, ela estabelece um ciclo contínuo de mensuração, testes e colaboração em todos os aspectos do negócio, integrando atividades de pesquisa e desenvolvimento em algo comercialmente viável, incrementando sua proposta de valor. Quer conhecer outras maneiras de diferenciar o seu negócio e construir vantagens sólidas e duradouras para a sua empresa? Acesse agora mesmo nosso artigo sobre vantagem competitiva.

Saiba o que é visão computacional e como ela pode ser usada

Você sabe o que é a visão computacional? O nome já sugere muita coisa, não é mesmo? Se olhar no espelho, identificar os objetivos à nossa volta, atravessar uma rua ou ler um artigo como este que está diante dos seus olhos são coisas tão banais que não nos damos conta da incrível engenharia biológica existente por trás do fenômeno da visão. Conceitos como a visão computacional e semelhantes, inicialmente eram restritos a construção de lentes e câmeras para captação e trabalho com imagens. Nos últimos anos, essa realidade ganhou um upgrade em seu desenvolvimento, graças ao crescimento da inteligência artificial e aplicação do conceito de redes neurais, aliados ao aprimoramento dos estudos sobre a auto-progressão de algoritmos, conhecido como machine learning. Quer saber mais sobre essa tecnologia e como ela pode ser utilizada nas empresas? Continue a leitura! Como funciona a visão humana A complexidade existente no processo de visão envolve não apenas a captação da luz refletida por um objeto, mas também processos cerebrais de identificação e armazenamento de memória que ocorrem de maneira quase instantânea. Para identificar um carácter deste texto ou qualquer outro objeto, próximo ou distante, a imagem atravessa seu olho e chega à sua retina. Uma análise primária é feita e o resultado é enviado longitudinalmente ao córtex cerebral, onde ela é analisada mais profundamente. No restante do córtex, a imagem é comparada com o seu acervo de memória analisando todas as suas características – processo que, apesar de complexo, ocorre em frações de segundo. O que é a visão computacional Como área do conhecimento, podemos afirmar que a visão computacional faz parte da inteligência artificial. Uma de suas melhores definições é a seguinte: um corpo de conhecimentos que busca a modelagem artificial da visão humana com o intuito de replicar suas funções, por meio do desenvolvimento de softwares e hardwares avançados. Como podemos perceber, recriar o mecanismo da visão humana não é algo simples, uma vez que esse processo é multifacetado, envolvendo um conjunto de órgãos e funções. Dada essa complexidade, é difícil imaginar que seres não biológicos, como máquinas e computadores, possam um dia desenvolver ou mesmo imitar essa capacidade humana. A novidade é que essa tecnologia já existe e se desenvolve a passos largos. Com ela, tarefas de reconhecimento, detecção, movimento, restauração de imagens e identificação agora podem ser desempenhadas automaticamente por máquinas. Mesmo em um estágio em que ainda podemos considerar como incipiente, uma verdadeira explosão de aplicações úteis tem surgido nos mais diferentes ramos. Conheça, a seguir, um pouco mais sobre as aplicações da visão computacional. Uso militar Muitas aplicações da visão computacional para o uso militar foram desenvolvidas. Apenas uma pequena parte é conhecida pelo público, devido à natureza secreta que a tecnologia possui nesse meio. No entanto, alguns de seus usos já são amplamente conhecidos, como na detecção de unidades inimigas e mísseis teleguiados. Veículos autônomos Carros não tripulados prometem ser o futuro de um trânsito mais seguro nas grandes metrópoles do mundo. Ainda em fase de testes por envolver diferentes tecnologias aplicadas a uma função comum, a visão computacional inserida nesses veículos, permite que eles reconheçam o trajeto e os obstáculos em seu caminho, aprimorando as rotas a serem seguidas. Apesar de se encontrarem em um estágio bem avançado, a tecnologia de veículos autônomos ainda não atingiu maturidade suficiente para que possa ser disponibilizada em larga escala ao mercado. Mercado de marketing A pesquisa Image intelligence realizada por Susan Etlinger demonstrou que mais de 3 bilhões de imagens são compartilhadas todos os dias pelas redes sociais. Cerca de 80% desse montante contém logotipos ou outras indicações que remetem a empresas específicas, mas sem possuir nenhum tipo de referência textual às suas marcas. Nesse contexto, empresas de marketing especializadas no mundo digital, que oferecem o serviço de gestão e monitoramento de presença online para outros negócios, não possuíam formas de acompanhar esse tipo de conteúdo tão relevante. Com a tecnologia de visão computacional, essa realidade começa a mudar, uma vez que a precisão de identificação de imagens chega a ser de 99%. Desse modo, um novo leque de possibilidades no mercado publicitário digital emerge graças ao uso dessa tecnologia. Segurança Sistemas de reconhecimento facial estão cada vez mais em destaque, dado o nível superior de segurança que confere ao acesso a locais públicos e privados, além de a dispositivos eletrônicos como celulares e tabletes. Tais sistemas também funcionam como chave de acesso para a confirmação de operações no setor financeiro, que requerem segurança extra. Nas redes sociais, a mesma função também está disponível na forma de detecção da presença do usuário e de seus amigos em fotos que são postadas, por exemplo. Serviços públicos É importante salientar, para além do uso privado, a utilidade pública do uso dessa tecnologia em diferentes situações. O uso de várias câmeras em uma região, por exemplo, permite monitorar a segurança do local, bem como o tráfego de veículos por meio do uso de imagens estereoscópicas, tornando o sistema de visão ainda mais preciso. Processo produtivo Empresas de diferentes ramos utilizam a visão computacional como ferramenta de controle de qualidade, por exemplo. Seja no ramo alimentício, têxtil ou automobilístico, softwares cada vez mais avançados, aliados à capacidade de processamento cada vez maior do hardware, ampliam as opções de uso da visão computacional a cada dia. Sistemas de monitoramento conseguem reconhecer padrões preestabelecidos, bem como apontar falhas que, de outra maneira, poderiam passar imperceptíveis ao olhar de um funcionário em linha de produção. A loja de conveniência Amazon Go, localizada na sede da empresa em Seattle, é um exemplo marcante da aplicação da tecnologia de visão computacional e deep-learning no setor comercial. Nela, os clientes podem efetuar suas compras sem a necessidade de um check out final, ou seja, sem terem que se dirigir a um caixa para “passar” seus produtos. A tecnologia, chamada de “Just Walk Out”, identifica quando os itens são retirados ou retornados às prateleiras. Ao final das compras, a conta dos usuários no aplicativo da Amazon Go é debitada automaticamente. Um