Чтобы выяснить, насколько хорошо Apple-гики ориентируются в своих iPhone, Шон Густафсон и его коллеги из Потсдамского университета пригласили 12 добровольцев. В итоге 68% участников правильно расположили большинство приложений на участках ладони, которые соответствуют той или иной клавише на тачскрине. При работе с популярными приложениями точность достигала 80%.
Воодушевившись такими результатами, исследователи приспособили систему распознавания движений, состоящую из видеокамер и сенсоров для отслеживания тычков пальца в ладонь. Похожая технология используется в Microsoft Kinect.
В экспериментах применялось довольно громоздкое устройство, размещаемое на голове. Но рано или поздно, как надеются авторы, систему можно будет встроить в пуговицу на одежде или замаскировать под аксессуар, а пользователи, становясь всё искушённее в «слепом» управлении «Айфоном», смогут выполнять более сложные задачи.
Главным недостатком предложенного способа взаимодействия с гаджетом является невозможность полной автономии: для телефонного разговора нужно, чтобы iPhone был рядом с хозяином. Так что разработка германских специалистов является, по сути, разновидностью handsfree.
Как бы то ни было, команда работает сейчас ещё и над «воображаемым» пультом от телевизора, который должен решить проблему этих вечно теряющихся в недрах жилья устройств. Результаты будут представлены на октябрьской конференции по пользовательским интерфейсам UIST 2011.