6 Results

deep learning

Search

O que é Deep Learning

Traduzindo para o português seria “aprendizagem profunda”. O Deep learning é uma vertente do Machine Learning, ou seja, uma forma de ensinar as máquinas a entenderem os dados de forma mais fácil.

Se você já ouviu falar em redes neurais, deve saber que esse tipo de aprendizado de máquina foi utilizado em carros autônomos e, de forma bastante significativa, melhorou as buscas na web.  

Atualmente o Deep Learning está se tornando um tema emergente dentro do campo da Inteligência Artificial como uma subcategoria do aprendizado de máquina via redes neurais, tornando-se uma das melhores formas de aprendizado para máquinas. 

Podemos ainda exemplificar outros lugares que o deep learning atua, por exemplo, no Google Translate (Google Tradutor) e a Cortana (assistente personalizado da Microsoft). De forma geral, com enorme quantidade de poder computacional, as máquinas podem agora reconhecer objetos e traduzir voz em tempo real. O Deep Learning, portanto, torna a Inteligência Artificial de fato inteligente e aplicável.

Deep Learning na prática

Na prática, o Deep Learning faz o “treinamento” de um modelo computacional para que ele possa decifrar a linguagem natural. O modelo relaciona termos e palavras para inferir significado, uma vez que é alimentado com grandes quantidades de dados.

De forma geral, as máquinas já são previamente “ensinadas” a ler os documentos e podem responder a questões colocadas sobre o seu conteúdo, mas as suas bases de conhecimento normalmente estão limitadas pelo tamanho dos arquivos. Como a quantidade de algoritmos on-line não para de crescer, a abordagem Deep Learning vem para fazer com que os sistemas possam fazer uso de um maior número de linguagem natural, concedendo-lhe uma compreensão mais profunda de temas universais.

Os algoritmos do tipo Deep Learning têm uma abordagem inovadora, pois dispensam grande parte deste pré-processamento e geram automaticamente propriedades invariantes em suas camadas hierárquicas de representação.

Algumas das principais aplicações de Deep Learning utilizadas atualmente são:

  • Compreensão do comportamento do cliente, realizado por sites de e-commerce robustos (Amazon e eBay). Durante todo o tempo no site, os dados do consumidor são coletados. Quanto maior a experiência no local, maiores serão as chances de efetivar a compra. Assim, o site é otimizado a cada acesso por meio dos dados gerados, para que a experiência daquele cliente seja mais envolvente;
  • Reconhecimento facial. Essa aplicação já é utilizada em sites de redes sociais, como o Facebook, para identificar quais são os potenciais usuários a serem marcados em uma determinada foto. Porém, atualmente, tem sido bastante utilizada para os sistemas de segurança. No carnaval de 2019, inclusive, o sistema auxiliou a Polícia Militar da Bahia a prender um homem foragido, reconhecido por meio desse tipo de sistema;
  • Suporte técnico personalizado, de forma que não é necessário, em muitos casos, atendentes humanos para prestar o serviço de assistência remota a um cliente. Alguns exemplos são a Clara, o Howdy e o GridSpace Sift;
  • Classificação de doenças. Por exemplo, há hoje tecnologias que auxiliam oftalmologistas em exames médicos para identificar, por exemplo, retinas afetadas pela diabetes, por meio da análise de imagens;
  • Redução no erro do diagnóstico de câncer, auxiliando na identificação de células cancerígenas por meio das imagens dos linfonodos;
  • Carros autônomos. Por meio de um Computador Neural Diferenciável (DNC), ao ser apresentado a mapas, linhas e paradas, o carro consegue se conduzir para uma rota mais curta, facilitando as viagens.

De forma resumida, temos, do conceito mais amplo para o mais restrito, a seguinte ordem:

A importância dos profissionais de desenvolvimento, entre outros, conhecerem melhor o Deep Learning

Nas últimas décadas, o Deep Learning ajudou a forjar avanços em áreas muito diversas, como a percepção do objeto, a tradução automática e o reconhecimento de todos os tópicos de pesquisa de voz, que tem sido, por muito tempo, difícil para os pesquisadores de Inteligência Artificial. A importância do Deep Learning é tamanha que o Google, por exemplo, disponibilizou um curso gratuito sobre o assunto para qualquer internauta interessado.

A importância de entender de Deep Learning se dá pelo imenso crescimento que essa abordagem tem experimentado nos últimos anos. Em geral, ela já está sendo utilizada dentro do conceito de aprendizado de máquina para as seguintes finalidades:

  • melhorar a experiência dos usuários em resultados de pesquisas online;
  • otimizar campanhas de anúncios online em tempo real (sites e aplicativos móveis);
  • analisar sentimentos por meio de textos (redes sociais, sobretudo);
  • melhorar as ofertas em e-commerces por meio de análise da navegação do cliente conectado;
  • prever falhas em equipamentos diversos;
  • melhorar a precificação por meio da análise do comportamento do consumidor nas lojas virtuais;
  • detectar fraudes;
  • detectar invasões de rede (inclusive aquelas orquestradas em massa);
  • reconhecer padrões e imagens;
  • filtrar spams nos e-mails.

O Deep Learning otimizando os processos de TI

O Deep Learning pode ser um grande aliado que irá atuar de forma essencial para potencializar as inovações no setor de TI de sua empresa, já que, pela sua capacidade de resolver o entendimento de dados, consegue-se analisar um grande volume de informações que chegam até o sistema, facilitando o entendimento sobre suas soluções atuais e encontrando possíveis gargalos, de forma a criar soluções para resolvê-los.

É possível automatizar atividades que são rotineiras e mecânicas dentro do setor de TI, de forma que possam ser executados sem a necessidade de intervenção humana no processo. Ganha-se assim em eficiência, agilidade e precisão nesses processos. Os profissionais que seriam responsáveis por essas tarefas podem ter seus esforços direcionados para questões mais analíticas, o que permitiria aumentar o grau de criatividade no desenvolvimento e, também, melhorar as partes analíticas dos processos de desenvolvimento, criação e testes.

Outro ponto interessante de ser comentado é que esse processo também auxilia na tomada de decisões dentro do setor de TI. Por meio de uma gestão orientada a dados, com os insights oferecidos pelo Deep Learning, os indicadores e relatórios apresentam uma maior precisão, permitindo otimizar as operações internas e, até mesmo, operações externas, oferecendo subsídios para outras áreas da empresa como, por exemplo, marketing e vendas.

O resultado de todos os pontos anteriores, junto com uma otimização da infraestrutura de TI, são operações realizadas de forma mais analítica automatizadas pelos algoritmos. Com isso, há uma maior produtividade dos especialistas, seja de forma individual, seja da equipe como um todo. Com melhores resultados, o gestor de TI consegue ter um maior embasamento para negociar prazos e condições com clientes, empreendedores e gestores da empresa, o que também auxilia o setor como um todo.

O Facebook está lançando, de forma gratuita, os desenhos de um novo servidor com a intenção de melhor executar suas aplicações de inteligência artificial; a IBM abriu seu código de aprendizagem de máquina, o SystemML. Esses são alguns dos exemplos de grandes empresas de software que estão investindo fortemente na construção de capacidades de aprendizagem profunda e incorporando-as em muitos dos seus produtos. Dessa forma, fica fácil entender o porquê do Deep Learning ser necessário para a expansão do seu negócio. 

Nós, aqui da Pasquali Solution, fazemos questão de trazer as melhores notícias do mundo dos negócios para você que almeja ficar por dentro de todos os detalhes de inovação desse setor. 

A Pasquali Solution é uma empresa B2B com core business em alocação de profissionais de TI. Estamos no mercado de Tecnologia da Informação há quase duas décadas e contamos com uma enorme cartela de soluções em TI para fazer com que seu negócio cresça de forma exponencial. Entre em contato conosco via email ou chat.

A nossa postagem de hoje é sobre uma das tendências tecnológicas mais comentadas para o ano de 2020. A tecnologia não para de avançar e, com isso, novas tendências seguem surgindo. Hoje, resolvemos dar destaque aos motores de inteligência e redes neurais. 

O que são as redes neurais e os motores de inteligência?  

Especialistas apontam outra tendência: motores de inteligência estendida e redes neurais acopladas a tecnologias de relacionamento do futuro. O que isso significa na prática? Daniel Domeneghetti, CEO da Dom Strategy Partners, explica: “As redes neurais são sistemas tecnológicos inspirados no cérebro humano. Sua transmissão de informações é semelhante ao trânsito percorrido por um neurônio em nosso cérebro. Em tese, esse tipo de tecnologia permite que o machine learning se desenvolva consideravelmente mais rápido”, diz Domeneghetti. Essa característica, segundo ele, é essencial, uma vez que aumenta a automatização e a personalização do atendimento, tornando os processos mais rápidos, já que se entende o que o cliente busca desde o primeiro contato com o SAC.

Frisamos que as marcas que desejam se manter competitivas no mercado estão implementando a inovação no seu dia a dia. O deep learning, um tipo de aprendizado da máquina, treina computadores para realizar atividades como seres humanos, como o reconhecimento da fala e identificação de imagens. Podemos citar o exemplo do iPhone X da Apple com o seu motor de inteligência.

No caso do iPhone, o deep learning permite o reconhecimento de face para o desbloqueio do aparelho, aplicações relacionadas à segurança e na transferência de expressões faciais para emojis. Outro projeto que podemos citar é que a marca tem projetos na área da saúde, como a capacidade de analisar dados coletados pelo Apple Watch, aplicativo que está sendo desenvolvido em parceria com pesquisadores da Stanford, a fim de detectar anomalias cardíacas.

O smartphone conta com um hardware que permite que os algoritmos de deep learning analisem dados de forma mais rápida, o que contribuiu para a economia de bateria. Dessa forma, o processamento de redes neurais podem ser feitas por meio do próprio dispositivo, com mais rapidez e segurança.

Em outubro de 2019, durante o evento Made by Google 2019, o Google anunciou o Pixel 4. O modelo é o primeiro smartphone a contar com um radar integrado para detectar movimentos e permitir novas formas de interação com o aparelho, como mudar a música apenas passando a mão sobre ele.Outra inovação implementada no Pixel 4 é a astrofotografia, que permite longa exposição à luz, permitindo a captura do céu estrelado com alta qualidade. Além disso, o smartphone possui um modo HDR+ em tempo real, permitindo que você veja como a imagem ficará antes mesmo da captura.

Pixel 4
Pixel 4

Facebook: Novo algoritmo de redes neurais para tradução

Os especialistas de Inteligência Artificial do Facebook desenvolveram um algoritmo de tradução automática, podendo ser executado nove vezes mais rápido do que o sistema do Google.

Para isso, o Facebook utiliza redes neurais convolucionais, que capturam frases complexas como um todo. Já os mecanismos de tradução automática convencionais traduzem palavra por palavra. No entanto, a nova técnica da rede social oferece alternativas inteligentes aos mecanismos de “atenção”, como a leitura simultânea de várias partes de um parágrafo. A principal vantagem desse sistema é a solução dos significados múltiplos para uma palavra, uma vez que o sentido da tradução depende do contexto.

Sistemas de Recomendação (SR)

A crescente variedade de informações disponíveis na web nem sempre é sinônimo de conteúdo de qualidade. Para filtrar a quantidade de opções disponíveis para o usuário, os SR automatizam a geração de recomendações baseadas na análise de dados.

Esse mecanismo é muito utilizado pela Amazon, Netflix, YouTube, Spotify, Facebook, Instagram etc. Com isso, esses sistemas geram recomendações válidas de itens que possam interessar aos consumidores.

No entanto, a filtragem pode ser colaborativa ou baseada em conteúdo. Os algoritmos de recomendação de filtragem colaborativa são utilizadas em redes sociais e no e-commerce. Nesse caso, a pessoa recebe recomendações de acordo com as avaliações de todos os usuários.

A filtragem baseada em conteúdo é feita por meio da sugestão de itens que sejam semelhantes aos que o usuário demonstrou interesse ou sobre as configurações de suas preferências. Isso possibilita que as recomendações sejam personalizadas para cada usuário. Os anúncios patrocinados nas redes sociais são um bom exemplo deste tipo de filtragem, uma vez que são analisadas as características do perfil, como histórico de postagens e amigos/seguidores.

Um dos mais personalizados SR é o caso da Netflix. A empresa adaptou como algoritmo de recomendação a diversidade de conteúdo. Isso é possível devido a combinação de métricas com foco nos dados do perfil do usuário, para a recomendação de itens relevantes que não sejam similares ao conteúdo já consumido pelo usuário. A marca também utiliza as redes sociais para personalizar essas recomendações.

Como vimos, a Inteligência Artificial está presente no nosso dia a dia, pelo menos para quem tem acesso à internet e aos dispositivos digitais. A recomendação de filmes da Netflix, os algoritmos de busca do Google e o aumento da segurança nos smartphones são apenas alguns dos benefícios que, efetivamente, têm potencial de facilitar a nossa vida.

A Pasquali Solution é uma empresa B2B com o core business em alocação de profissionais de TI. Estamos há quase duas décadas no mercado de tecnologia da informação. Nossos especialistas seguem trabalhando home office, para dar continuidade aos seus projetos. 

Entre em contato conosco

Vivemos em um mundo onde a tecnologia está realmente mudando quase todos os aspectos de nossas vidas. No SEO, isso inclui facilitar a automatização de tarefas que levariam dias, semanas ou meses. E é por isso que mais profissionais de SEO estão usando a automação para acelerar tarefas chatas e repetitivas com o Python.

O que é o Python?

Python é uma linguagem de programação de código aberto orientada a objetos.  é considerada uma linguagem de programação de alto nível, interpretada, de script, imperativa, orientada a objetos, funcional, de tipagem dinâmica e forte.

De acordo com o Python.org, sua sintaxe simples e fácil de aprender enfatiza a legibilidade e, portanto, reduz o custo de manutenção do programa.

É usado no processamento de linguagem natural (PNL), análise de dados de pesquisa / rastreamento e automação de ferramentas de SEO.

Pontuamos, então, uma lista das seis tarefas de SEO que você pode automatizar com o Python:

  • Implementação;
  • Comparação de Visibilidade;
  • Mapeamento de Intenção;
  • Sitemaps XML;
  • Análise do código de resposta;
  • Análise de SEO.

1. Implementação

Uma das frustrações mais comuns das agências de SEO e consultores são os clientes que não implementam as recomendações.

De fato, os motivos variam de acordo com o cliente, e uma das causas mais comuns é que eles simplesmente não têm o conhecimento ou os recursos necessários para implementar essas recomendações.

Todavia, é importante procurar profissionais especializados no assunto para poder auxiliar você e fazer com que sua empresa cresça de forma exponencial. 

2. Comparação de Visibilidade

Atualmente o benchmarking é uma das ferramentas que pode ajudar você a conseguir fazer uma análise estratégica aprofundada das melhores práticas usadas por empresas do mesmo setor que o seu. 

Ele também identifica onde os concorrentes têm visibilidade que seu site não possui.

De forma geral, você pode extrair dados com o SEMrush, o BrightEdge Data Cube e outras fontes de dados.

Para fazer isso, você insere os dados no Excel e os organiza por palavras-chave com e sem marca e em diferentes zonas de visibilidade.

Pode parecer uma tarefa árdua se você tiver muitas palavras-chave, linhas de negócios e concorrentes sem marca – e se tiver várias categorias e subcategorias.

No entanto, usando scripts Python, você pode automatizar o processo e analisar o tráfego entre sites com palavras-chave sobrepostas para capturar audiências inexploradas e encontrar lacunas de conteúdo.

3. Categorização de Intenção

Parte do processo de benchmarking de visibilidade é a categorização de intenção – um processo exaustivo que costumava ser feito manualmente.

Para um grande site com milhares ou até milhões de palavras-chave, categorizar as palavras-chave por intenção – Veja, Pense, Faça – pode ser seu pior pesadelo e levar semanas.

Agora, no entanto, é possível fazer a classificação automatizada de intenções usando aprendizado profundo (Deep learning).

O aprendizado profundo depende de redes neurais sofisticadas.

Python é a linguagem mais comum usada nos bastidores devido à sua extensa biblioteca e aceitação na comunidade acadêmica.

4. Sitemaps XML

Os sitemaps XML são como mapas reais do seu site, que informam o Google sobre as páginas mais importantes, bem como quais páginas ele deve rastrear.

Se você tem um site dinâmico com milhares ou milhões de páginas, pode ser difícil ver quais páginas estão indexadas – especialmente se todos os URLs estiverem em um arquivo XML maciço.

Agora, digamos que você tenha páginas criticamente importantes em seu site que devem ser rastreadas e indexadas a todo custo.

Por exemplo, os mais vendidos em um site de comércio eletrônico ou os destinos mais populares em um site de viagens.

Se você misturar suas páginas mais importantes com outras menos importantes nos seus sitemaps XML (que é o comportamento padrão na maioria dos sitemaps gerados pelo CMS), não será possível saber quando algumas de suas melhores páginas estão com problemas de rastreamento ou indexação .

No entanto, usando scripts Python, você pode criar facilmente sitemaps XML personalizados que incluem apenas as páginas que você deseja monitorar para implantar no servidor e enviar para o Google Search Console.

5. Análise do código de resposta

Os links ainda são usados pelo Google e outros mecanismos de pesquisa e continuam importantes para melhorar a visibilidade orgânica se o seu site apresentar um excelente conteúdo e oferecer ajuda às pessoas para solucionar seus problemas.

Felizmente, existe um script Python chamado Pylinkvalidator que pode verificar todos os seus códigos de status de URL para garantir que você não tenha nenhuma página quebrada ou páginas que sejam redirecionadas para outro URL.

O único problema é que, se você tiver um site grande, isso levará tempo, a menos que você baixe algumas bibliotecas opcionais.

6. Análise de SEO

Todos nós adoramos ferramentas de SEO que fornecem uma análise rápida de uma página para ver qualquer problema, como:

A página possui uma boa etiqueta de título?

A meta descrição está faltando ou é atraente o suficiente para obter um clique?

A página possui os dados estruturados adequados?

Quantas palavras esta página possui?

Quais são as frases mais comuns usadas nesta página?

Este analisador de SEO Python pode identificar facilmente problemas em cada página que você pode corrigir e priorizar para aumentar seu desempenho orgânico.

A automação está ajudando os profissionais de SEO a economizar tempo e a serem mais eficientes para que possamos focar na estratégia para melhorar o desempenho orgânico de nossos clientes.

O Python é uma linguagem de programação muito promissora que pode ajudar a automatizar tarefas demoradas, para que elas sejam executadas em minutos – e sem ou com pouca experiência em programação necessária. 

À medida que o Google se torna mais sofisticado com os avanços no aprendizado de máquina ao longo do tempo, mais e mais elementos serão automatizados.

É por isso que é importante que os profissionais de SEO se familiarizem com linguagens de programação como Python, que podem ajudar a dar a eles uma vantagem em tempo e eficiência.

A Pasquali Solution é uma empresa B2B com core business em alocação de profissionais de TI. Entre em contato conosco para sanar suas dúvidas de como podemos auxiliá-lo a fazer sua empresa crescer de forma exponencial. 

Vamos conhecer o TOP 10 das melhores tendências de data analytics para o ano de 2020.

Vamos à lista:

1. Deep Learning

Para Frank J. Bernhard, diretor de dados da SHAPE-Digital Strategy, o Deep Learning já saiu do estágio de tendência para um status de consolidação. E o que isso significa? Não é mais algo novo, e sua implementação já é quase mandatória. A diferença está na forma como cada empresa emprega a prática em suas operações, e quais estratégias estão tomando para se destacarem em comparação à concorrência.

2. Automated Machine Learning

Automated Machine Learning, ou AutoML, é a aposta de Marcus Borba, fundador e consultor da Borba Consulting. Para ele, a rápida evolução dos serviços de aprendizado de máquina nos últimos anos possibilitou o surgimento de funções ainda mais ágeis e automatizadas neste setor, sendo de grande valia para marcas, principalmente pela sua fácil utilização e independência.

3. Gráficos Semânticos

Roxane Edjlali, diretora sênior de gerenciamento de produtos da MicroStrategy e ex-analista do Gartner, afirma que os gráficos semânticos são essenciais para agregar valor aos negócios: “o gráfico semântico vai se tornar a espinha dorsal que suporta Data e Analytics em um cenário de dados que muda constantemente. As organizações que não usam um gráfico semântico correm o risco de ver o ROI relacionado às análises cair devido à complexidade crescente e aos custos organizacionais resultantes.”, explica.

4. Visão humana

Dados são excelentes, mas, para Chandana Gopal, Diretora de Pesquisa do IDC, as pessoas que os aplicam precisam, também, estar familiarizadas com questões etnográficas e o contexto humano por trás de todas as situações coletadas.

Segundo Gopal, os dados, de forma crua, são incompletos caso não envolvam este valor.

5. Embeeded Analytics

Segundo Doug Henschen, VP e analista da Constellation Research, a nova geração de Embeeded Analytics vai acelerar o tempo e obtenção de insights. “A análise concisa fornecida no contexto de aplicativos e interfaces específicos acelera a tomada de decisões. Esse estilo de incorporação e a curadoria de análises concisas e contextuais podem levar mais tempo, e com os avanços, incluindo métodos de desenvolvimento no-code e low-code, estamos vendo uma adoção crescente da próxima geração de Embeeded Analytics.”

6. Data e Analytics

Da mesma forma que a visão humana é necessária para complementar a inteligência de dados, as empresas precisam se acostumar a diversificar estas bases de referências. David Menninger, vice-presidente e diretor da Ventana Research, explica que as grandes organizações dificilmente têm uma plataforma exclusiva e padronizada de Data e Analytics, e essa tendência de variar fontes será cada vez mais comum.

7. Habilidades orientadas a dados

O vice-presidente de educação da MicroStrategy, Hugh Owen, explica que as habilidades orientadas a dados vão se tornar um requisito nas companhias, que devem passar não apenas a recrutar mais pessoas com capacidades analíticas, mas a capacitar os funcionários atuais para estas habilidades.

8. Inteligência Artificial

Assim como o Deep e Machine Learning já se tornaram mandatórios em um mercado data-oriented, a inteligência artificial também é um braço que não pode ficar de fora nas estratégias de negócios. A equipe de pesquisadores da Forrester Research indica que, em 2020, as equipes de ciências de dados devem passar de 70% a 90% de seu tempo criando novos e melhores modelos de IA para serem implementados.

9. Inteligência Móvel

Mark Smith, CEO e diretor de pesquisa da Ventana Research, sugere que, neste ano, veremos metade das companhias reavaliando suas operações em dispositivos móveis e compreendendo que são insuficientes para atender às expectativas dos clientes. Após isso, uma grande remodelação destas funções digitais será observada.

10. Experience Management

R “Ray” Wang, fundador e analista principal da Constellation Research, comenta que a IA irá potencializar o Experience Management: “à medida que os aplicativos são decompostos pelo processo de negócios para headless microservices, a automação e a inteligência irão desempenhar um importante papel na criação de personalização e eficiência em massa e em escala. A Empresa Inteligente levará o contexto e o Data Analytics para impulsionar suas próximas ações.”

Já falamos aqui sobre os avanços da Inteligência Artificial em vários setores do mercado. Dessa vez, vamos explicar aqui no blog o quanto a tecnologia avançou e conseguiu classificar imagens a ponto de identificar, por exemplo, doenças como tumores em tomografias, composições mineralógicas em rochas ou patologias em análises de microscopia óptica. Essa área da Inteligência Artificial é conhecida como aprendizado de máquina e vem ganhando novas aplicações nos últimos anos.

Vamos explicar melhor como funciona esse aprendizado. O treinamento da máquina é feito por meio da repetição de imagens usadas como exemplos de um determinado contexto ou situação e a preparação adequada desse material requer um esforço de especialistas das mais diversas áreas.

De acordo com Alexandre Xavier Falcão, do Instituto de Computação da Universidade Estadual de Campinas (Unicamp), em palestra apresentada no mês passado (21/11), na FAPESP Week France: “O humano é que coordena. Sem o controle do especialista sobre o processo de treinamento a máquina pode aprender a tomar decisões com base nas características da imagem que não estão relacionadas ao problema-alvo. Isso gera um resultado ruim ou restrito àquela base de dados em que a máquina foi treinada. Quando muda a base de dados, o erro aumenta consideravelmente, tornando a análise da máquina pouco confiável”

Falcão tem unido a ciência da computação com diferentes áreas do conhecimento a partir de projetos em machine learning, desenvolvidos com o apoio da FAPESP, linha de pesquisa que investiga a interação humano-máquina na tomada de decisões.

Detectando parasitas por automatização 

O Falcão lidera um projeto na FAPESP Week France que tem como objetivo automatizar a detecção de parasitas em exames de fezes. Tal pesquisa foi conduzida por meio de uma parceria entre a Immunocamp e pesquisadores dos Institutos de Computação e de Química da Unicamp, além da Faculdade de Ciências Médicas da mesma universidade.

Com uma equipe interdisciplinar fora desenvolvida uma máquina – patenteada e em breve disponível no mercado – capaz de identificar as 15 espécies mais prevalentes de parasitas que infectam humanos no Brasil.

Tal técnica de aprendizado de máquina demonstrou eficiência superior a 90%, bem maior que as análises convencionais realizadas por humanos com o trabalho visual em lâminas de microscopia óptica, cujos índices variam de 48% a, no máximo, 76%. A máquina também é capaz de processar 2 mil imagens em quatro minutos.

“A ideia não é substituir o trabalho de humanos, até porque eles precisam treinar as máquinas para a identificação de mais espécies de parasitas e confirmar o diagnóstico dos patógenos detectados pela máquina, mas evitar a fadiga dos humanos e aumentar a precisão dos resultados”, disse.

A tecnologia inédita contou também com apoio da FAPESP por meio do Programa Pesquisa Inovativa em Pequenas Empresas (PIPE).

Interatividade no aprendizado da máquina

De acordo com Falcão, a primeira dificuldade do projeto foi ensinar a máquina a distinguir nas imagens o que era impureza e o que era, de fato, parasita. “Só conseguimos contornar esse obstáculo por meio da combinação entre técnicas de processamento de imagens, aprendizado interativo de máquina e visualização. O especialista e a máquina participam de forma colaborativa no ciclo do aprendizado da máquina. Outro ponto importante é que áreas da saúde e da química têm criado técnicas para gerar lâminas de microscopia óptica mais ricas em parasitas e com menos impurezas fecais”, disse.

Uma das inovações criadas pela equipe da Unicamp foi um sistema para separação de parasitas e impurezas baseado no princípio de flotação por ar dissolvido.

A máquina é capaz de fazer a varredura automatizada da lâmina e detectar os parasitas que aparecem em imagens na tela do computador. Isso foi possível por meio de técnicas computacionais que separam os componentes da imagem para verificar e decidir se são impurezas ou uma das 15 espécies parasitárias.

“A interação humano-máquina tem potencial para reduzir o esforço humano e aumentar a confiança na decisão algorítmica. Nossa abordagem tem mostrado que a inclusão do especialista no ciclo de treinamento gera sistemas confiáveis de tomada de decisão baseada em análise de imagem.”

O intuito da metodologia é minimizar o esforço do especialista na anotação de imagem em larga escala, visando a construção de sistemas de tomada de decisão com alto índice de acerto.

“A abordagem clássica, que usa exemplos pré-anotados e sem interação humana durante o treinamento, deixa várias perguntas sem resposta. São questões essenciais, como quantos exemplos são necessários para que as máquinas aprendam ou como explicar as decisões tomadas pela máquina. A nossa metodologia consiste em incluir o especialista no ciclo do aprendizado de máquina para que perguntas como essas sejam respondidas”, disse.

A estratégia da equipe de Falcão para construir sistemas de tomada de decisão confiáveis tem sido explorar habilidades complementares. “Os humanos são superiores na abstração de conhecimento. Já as máquinas não se cansam e são melhores no processamento de grandes quantidades de dados. Desse modo, o esforço do especialista é minimizado ao controlar o ciclo de aprendizado e as decisões das máquinas passam a ser explicáveis”, disse.

Aprendizado autônomo

Outra técnica de machine learning que tem sido empregada cada vez mais para desenvolver novas tecnologias baseadas em análise de imagens é a de deep learning, que visa treinar as máquinas a aprenderem sozinhas por meio de reconhecimento de padrões e, dessa forma, agirem e interpretarem dados de modo mais natural.

Os avanços nessa área têm possibilitado inovações importantes baseadas na análise de imagens, como reconhecimento facial, identificação de corpos celestes ou sistemas capazes de descrever o conteúdo de uma foto, destacou Nina Hirata, pesquisadora do Instituto de Matemática e Estatística da Universidade de São Paulo (IME-USP), em palestra apresentada também no dia 21/11 durante a programação da FAPESP Week France.

“Tarefas comuns em problemas de análise de imagens, como classificação, reconhecimento de objetos, segmentação (delineação precisa do contorno de objetos) e interpretação do conteúdo, podem ser abordadas com técnicas de machine learning e, nos últimos anos, sobretudo, com técnicas de deep learning”, disse Hirata.

Sabemos que a deep learning envolve técnicas que permitem processar uma imagem diretamente, sem que um humano precise descrever as características da da mesma durante o treinamento da máquina, como explicou a pesquisadora.

“Antes era preciso escrever algoritmos muito específicos para extrair informações de características da imagem. Cada caso era um caso. O processo era muito manual. Hoje, com o deep learning, essa tarefa ficou muito mais fácil, o que nos permite focar em tarefas de nível mais elevado. Por exemplo, no caso de imagens biomédicas, em vez de empenhar nosso esforço em segmentar e extrair características de células individuais em um tecido, podemos canalizar o esforço na comparação de tecidos”, disse Hirata.

No entanto, acrescentou, apesar dos vários aspectos positivos desta tecnologia, existem também vários desafios a serem vencidos. “Deep learning é uma espécie de caixa-preta: é muito difícil explicar por que ele está funcionando ou por que, às vezes, deixa de funcionar”, comentou Hirata.

Para Hirata, é preciso que pesquisadores de outras áreas entendam como formular problemas computacionais e, ao mesmo tempo, os estudantes da área de computação sejam treinados a lidar mais diretamente com problemas reais.

A Pasquali Solution é uma empresa B2B com core business em alocação de profissionais de Tecnologia da Informação. Temos as melhores soluções para seu negócio, independente do nicho e do tamanho de sua empresa. Entre em contato conosco via email ou chat. Estamos a postos para sanar todas as suas dúvidas.

Hoje vamos de TOP 10 com uma lista extremamente interessante, não só para você profissional que quer fazer a diferença no mercado, como também para você, gestor, que deve procurar profissionais especializados nesses recursos tecnológicos para que possa fazer com que sua empresa cresça de forma exponencial. 

O ano de 2020 promete um crescimento significativo em nossa área de TI. Não é preciso nem mencionar que estamos extremamente animados com tais dados, não é verdade? 

Sempre a frente do seu tempo, a Pasquali Solution busca passar para você, que faz parte de nossa audiência, as melhores novidades sobre o futuro dos negócios no nicho de tecnologia da informação e entretenimento. 

Mas vamos a lista do top 10 dos principais recursos tecnológicos para os profissionais em 2020. 

Um estudo conduzido pela plataforma Udemy listou os dez principais recursos tecnológicos para os profissionais em 2020

Sabemos que a competitividade no nicho de Tecnologia da Informação é super acirrada, assim como acompanhar as atualizações desse universo é outro fator extremamente difícil, portanto, devemos procurar todas as formas possíveis de nos manter informados, não só sobre essas novidades no mercado de negócios, mas, sobretudo, sobre as atualizações para o nicho que você escolheu seguir em sua área. 

É importante lembrar que muitas empresas estão investindo em recursos de recrutamento, contratação e formação do talento certo para seguirem competitivas no mercado, o que implica dizer que os profissionais que estejam dispostos a dedicar tempo ao desenvolvimento de habilidades tecnológicas podem ter vantagem em conseguir algumas das funções mais requisitadas. 

Reforçamos que, com o desenvolvimento tecnológico acontecendo de forma muito rápida, pode ser difícil afirmar com certeza quais habilidades serão necessárias para se destacar em diferentes áreas.

Pensando nisso, a Udemy, plataforma de ‘e-learning’ para profissionais, listou os 10 principais recursos tecnológicos para 2020:

1.  Phyton

Linguagem de programação usada no desenvolvimento de software, gerenciamento de infraestrutura e análise de dados. 

2. React (web)

Uma biblioteca JavaScript para criar interfaces de usuário.

3. Angular

Uma estrutura da web de ‘front-end’ de código aberto baseada em JavaScript.

4. Machine Learning

O estudo científico de algoritmos e modelos estatísticos.

5. Docker

Plataforma de código aberto usada para criar pacotes de software chamados ‘contêiners’.

6. Django

Estrutura da web livre e de código aberto baseada em Python.

7. CompTIA

Organização profissional de tecnologia que possui quatro séries de certificação de TI que variam do nível básico ao especialista.

8. Amazon AWS

Certificação que valida a experiência em nuvem.

9. Deep Learning

Um tipo de machine learning baseado em redes neurais artificiais.

10. React Native

Estrutura de aplicativos móveis de código aberto criada pelo Facebook para desenvolver aplicativos para Android, iOS, Web e Plataforma Universal Windows.

De acordo com Jennifer Juo, líder da equipe de marketing de conteúdo da Udemy, “as organizações estão se tornando mais centralizadas em dados, e isso se deve (em parte) porque estão aproveitando o poder da inteligência artificial, e é necessário analisar e processar dados em todos os tipos de funções”.

A Udemy analisou a atividade online de mais de 40 mil profissionais para fazer o ranking.

A Pasquali Solution é uma empresa B2B com core business em alocação de profissionais em TI. Estamos no mercado há quase duas décadas e aptos a trazer as melhores soluções na área de tecnologia da informação para sua empresa. 

Mande email ou nos chame no chat para nos mostrar seu projeto e traçarmos metas para realizá-lo. Nosso intuito é fazer com que sua empresa cresça de forma exponencial.