Ei Siri, você é estúpido

Siri, você obedece às Três Leis da Robótica? Como muitas outras perguntas idiotas, é algo que alguém da Apple antecipou laboriosamente. “Eu esqueci os três primeiros”, gorjeia a resposta, “mas há um quarto: 'Uma máquina inteligente deve primeiro considerar o que vale mais a pena: realizar a tarefa dada ou, em vez disso, descobrir alguma maneira de resolvê-la'. ”

Ha ha! Imagine a reunião onde escreveram aquele! O problema é que não é realmente uma piada, é? Esse é o resumo de desenvolvimento real deles.

O Siri pode fazer muitas coisas fáceis, como somar, verificar a previsão do tempo e enviar e-mails. Exija qualquer coisa mais difícil e ele bloqueia "Não tenho certeza se entendi" ou apenas faz uma pesquisa na web para o que você disse. Bem, whoop-de-doo. Singularidade, ah.

Veja as dez coisas relacionadas que a Apple matou e por que ela estava certa. Apple iPhone 6s review: Um telefone sólido, mesmo anos após seu lançamento

A ascensão dos bots do-it-all - incluindo o Alexa da Amazon, o futuro assistente do Google e até mesmo um rival do desenvolvedor original da Siri, chamado Viv - lança um holofote desconfortável sobre o concierge desencarnado do iOS. Se, como há rumores, está prestes a ser anunciado como um recurso de sustentação do OS X 10.12 Sensemilla *, podemos apenas esperar que um salto quântico em inteligência esteja a caminho. Porque pode haver algumas piadas, mas o Siri ainda não entendeu por ser sábio.

Uma direção

“Mas funciona. Majoritariamente. Se você fala como um locutor da BBC. ”

É ótimo que exista tecnologia para converter voz em texto. Não tão bom a ponto de a tecnologia aparentemente não caber no seu telefone, então ele tem que ficar na Carolina do Norte, usando toda a sua cota de dados. Mas funciona. Majoritariamente. Se você fala como um locutor da BBC.

Em seguida, esse texto pode ser minerado para palavras-chave para conectar em uma das fontes de informação da Siri, que incluem Apple Maps, Wolfram Alpha, Wikipedia e Microsoft Bing. (Felizmente, você pode trocar o Bing por um mecanismo de pesquisa real em Configurações | Safari | Mecanismo de pesquisa. Não pedindo ao Siri, no entanto. Isso seria muito fácil.)

Mas a forma como o Siri usa essas fontes está longe de ser inteligente. Quando abro o Maps e digito ‘Whickham’ na caixa de pesquisa, ele encontra corretamente uma lista de lugares em Whickham, uma pequena cidade perto de onde moro. Entre elas está a entrada genérica para o próprio Whickham, marcada logo ao lado da palavra ‘Whickham’ no mapa da Apple. A propósito, a composição é adorável.

Eu não deveria estar admirando a composição enquanto dirijo, então, em vez disso, digo: "Ei, Siri, navegue até Whickham." Rápido como um raio, Siri encontra High Wycombe, Buckinghamshire. Esse é o outro lado da Inglaterra. Não me pergunta se este é o Wycombe que eu quis dizer; ele apenas começa a traçar uma rota.

(Isso não é tão idiota quanto parece. Quando eu peço direções para "Washington", outra cidade em Tyne and Wear, ele me oferece Olympia, WA, a 4.600 milhas de distância. Não é nem mesmo o Washington errado mais provável.)

“Não, Siri, Whickham, W-H-I-C-K-H-A-M.”

Agora, há uma maneira inteiramente óbvia de resolver essa confusão: você deve soletrar a palavra. Então eu tento: “Não, Siri, Whickham, W-H-I-C-K-H-A-M.” Ele ouve isso perfeitamente e anuncia imediatamente que não consegue encontrar locais correspondentes. Imediatamente, lembre-se - não saia para verificar as fontes. Simplesmente não. Lembre-se de que Whickham está bem ali no Apple Maps, o mesmo mecanismo que está usando para me mostrar High Wycombe.

A única maneira de chegar a Whickham é lembrando o nome de uma rua lá (Front Street) e perguntando por ele, depois pensando em outra maneira de pedi-lo depois que Siri me mostrar a Front Street errada e, novamente, não oferecer alternativas. Para piorar a situação, escolheu a Front Street mais próxima da minha localização atual. Obviamente.

Desculpe, eu não sigo

Outros tipos de consulta são tratados com tolices semelhantes. “Siri, qual é a diferença entre o PIB da Alemanha e o da Itália?” Sem problemas - ele vai e obtém a resposta correta do Wolfram Alpha. Então tento fazer uma pergunta complementar. Siri costumava ser uma porcaria em perguntas de acompanhamento, mas resistiu às suas ideias depois que o Google Voice Search foi lançado e as acertou. Agora você pode perguntar "Como estará o tempo na segunda-feira?" e adicione “Que tal terça-feira?” e está tudo bem. Ou turvo, conforme o caso.

Então, eu prossigo com: “Que tal a França?” Ele pode interpretar erroneamente “França” como “amigos”. De todas as palavras que eu poderia ter dito, o fato de eu ter acabado de citar dois outros estados europeus aparentemente não acrescenta peso à possibilidade de que eu quis dizer "França". IA interativa líder mundial, pessoal.

Tenho um parente de 88 anos que é muito surdo. Quando você repete algo que ela ouviu mal, ela adivinha uma palavra diferente. Ela ainda pode estar errada, mas ela não adivinha a mesma palavra de novo, porque por que você a repetiria? Repito “Que tal a França?” três vezes. Três vezes, Siri retorna “E os amigos?” “Pergunta interessante, Adam,” ela responde, brilhantemente.

Por fim, percebo que preciso dizer "França" com um sotaque chique (sou do norte, então "França" rima com "calças"). Siri volta com o número de telefone de Elizabeth France CBE, que está em meus contatos de quando ela era o Registrador de Proteção de Dados. Porque obviamente eu quis dizer uma pessoa aleatória para cujo escritório liguei pela última vez há 14 anos, não para o país. (O país que faz fronteira com os outros dois países que acabei de mencionar.) E geralmente me refiro às pessoas apenas por seus sobrenomes. Isso é totalmente uma coisa. "Siri, e Carruthers?"

Lixo em

O tipo de lógica que está faltando aqui não deve ser difícil. Já está lá, em alguns aspectos. Você pode dizer - do nada, à propos de rien - "Ei, Siri, Ivy é minha irmã." Depois de verificar a qual Ivy você se refere, se você tiver mais de uma em seus contatos, Siri perguntará: "OK, você quer que eu lembre que Ivy é sua irmã?" Diga “Sim” e, no futuro, você poderá dizer “Ligar para minha irmã” para ligar para esse contato.

As relações familiares têm interdependências padrão, então, naturalmente, você pode especificar "Oliver é o filho de Ivy" e, posteriormente, dizer "Siri, envie uma mensagem para meu sobrinho" para enviar uma mensagem a este contato. Não é ciência de foguetes, mas é bom ... espere um minuto. Não. Siri está fazendo uma pesquisa na web por “Oliver é filho de Ivy”. Não pode nem chegar tão longe.

“O que é mais enfurecedor no Siri é que, para um sistema projetado para ouvir, ele é um péssimo ouvinte.”

O que é mais enfurecedor sobre o Siri é que, para um sistema projetado para ouvir, ele é um péssimo ouvinte. E isso é mais do que apenas um bug. A despreocupação injustificada, a recusa categórica de contemplar sua própria ignorância, são inescapavelmente sintomáticos da arrogância do Vale do Silício.

Compreender a fala humana e as intenções por trás dela é um enorme desafio, mesmo para os humanos. Como oradores, tropeçamos em nossas palavras; como ouvintes, nós os interpretamos mal. Quase todas as conversas são solicitando esclarecimentos ou resolvendo ambiguidades.

No entanto, Siri não aceitará nada disso. Apesar de todo o seu verniz de conversação, ele está apenas procurando em nossa entrada os mesmos comandos latidos que poderíamos encontrar em um menu. Ou ele sabe o que queremos ou "não entende", uma forma passivo-agressiva de dizer "entrada inválida". Não há nada no meio.

"Isso é tão Bay Area", as pessoas dizem agora, quando algum magnata da tecnologia superprivilegiado comete um problema humano complexo com uma solução simplificada demais para o problema errado. Podemos também dizer: “Isso é tão Siri.”

* Prove que estamos errados então

LEIA EM SEGUIDA: As dez coisas que a Apple matou - e por que estava certo