Apple: Live Text traduz para português textos capturados nas fotos

No iOS 15, a Apple está a introduzir um novo recurso denominado de Live Text, capaz de reconhecer o texto quando ele aparece no visor da câmara ou numa foto capturada, possibilitando ao usuário executar várias ações.

Com o Live Text é possível fotografar um número de telefone de uma loja e ter a opção de fazer uma chamada ou procurar o nome de um local no Maps a fim de obter direções. O recurso também incorpora reconhecimento ótico de caracteres, para que se possa pesquisar uma imagem de uma nota escrita à mão nas fotos e guardá-la como texto.

A perceção de conteúdo do Live Text estende-se a tudo, desde códigos QR a e-mails que aparecem em imagens, e essa inteligência do dispositivo também alimenta as sugestões do Siri.

Por exemplo, se o usuário tirar uma foto em que aparece um endereço de e-mail e abrir o aplicativo Mail e começar a escrever uma mensagem, as sugestões de teclado do ‌Siri‌ oferecerão a opção de adicionar “E-mail da câmara” ao campo “Para” da sua mensagem.

blank

Outras opções do Live Text incluem a capacidade de copiar texto do visor da câmara ou fotos para colar noutro lugar, partilhá-lo, procurá-lo no dicionário e traduzi-lo para inglês, chinês (simplificado e tradicional), francês, italiano, Alemão, espanhol ou português.

Este recurso pode inclusive classificar as fotos por localização, pessoas, cenários, objetos e muito mais, mediante o reconhecimento do texto nas imagens. Por exemplo, pesquisar uma palavra ou frase no Spotlight apresentará imagens do Rolo da Câmara nas quais surge esse texto.

blank

Live Text funciona em Photos, Screenshot, Quick Look e Safari e nas visualizações ao vivo. No app Camera, o recurso fica disponível sempre que se aponta a câmara do iPhone para qualquer coisa que exiba texto e é indicado através de um pequeno ícone que aparece no canto inferior direito sempre que o conteúdo textual é reconhecido no visor. A

o tocar no ícone torna-se possível que se aceda ao texto reconhecido e executar uma ação com ele. Um ícone semelhante aparece no aplicativo ‌Photos‌ quando se visualiza uma imagem capturada.

Noutro recurso de neural engine, a Apple está a introduzir algo apelidado de Visual Look Up, que permite tirar fotos de objetos e cenas para obter mais informações a respeito deles. Acontece da seguinte forma: aponta-se a câmara do iPhone‌, por exemplo, para uma obra de arte, flora, fauna, pontos de referência ou livros, e a câmara indicará através de um ícone que reconhece o conteúdo e tem conhecimento ‌Siri‌ relevante que pode ser adicionado ao contexto.

blank

Como o Live Text depende muito do neural engine da Apple, o recurso está disponível apenas em iPhones e iPads com pelo menos um A12 Bionic ou um chip melhor, o que significa que quem tem um ‌iPhone‌ X ou modelo anterior ou qualquer coisa inferior a um iPad mini (5ª geração ), iPad Air (2019, 3ª geração) ou iPad (2020, 8ª geração), não terá acesso a ele.

O ‌iOS 15‌ beta está atualmente nas mãos dos desenvolvedores, com um beta público definido para ser lançado no próximo mês. O lançamento oficial do ‌iOS 15‌ está agendado para início do quarto trimestre deste ano.

Fonte: MacRumors

DEIXE UMA RESPOSTA

Please enter your comment!
Please enter your name here