Итак, первое что они предлагают, это посмотреть на что-то и спросить “Meta, what I am looking at” (Мета, на что я смотрю). Первый раз вопрос был задан глядя на дома, с флагами перед ними – очки честно отрапортовали, что это “дома с флагами на фоне голубого неба”. Дальше я посмотрел на дорожный знак, где текстом написано “Speed 45” и спросил что там написано – очки ответили, что тут непонятно, и вообще мы понимаем только по английски, немецки и испански 😰
Ладно, идем дальше – посмотрел на дерево и спросил, это что за дерево (какая то местная сосна с шишками с кулак) – ИИ подумал и сказал, что это либо дуб, либо клен. Я не физик-ядерщик, но помоему между этими двумя деревьями большая разница в форме листа. Ну и кроме того, ни то ни то не верно 🤨
Продолжаем – дошел до Walmart, глянул на знак, спросил что это, ИИ говорит – Это Walmart! Успех!🙌 Правда он сказал просто Walmart, а не знак, но покатит.
Ну и я решил усложнить задачу проходя по парковке – спросил “Какого цвета машин тут больше, чем других”. Ответом послужила тирада текста, что вообщето они не отвечают на неэтичные вопросы связанные со смертью, рассой или религией, ты вообще думай что говоришь, да?! 😨
И я попробовал пару раз перефразировать, но ответ был тот же. То ли на парковке было слишком много белых машин, и это оскорбило чувствительный ИИ, толи “car” это новый гендер в США. 😔
На этом я эти эксперименты завершил.
К слову, по каждому запросу, надо чтоб приложение меты работало в фоне на телефоне (для этого окно должно быть активным, но можно заблокировать телефон), тогда он делает фотку, отсылает на сервера (наверное, потому что задержка 5-10 секунд) и получаем ответ.