Vote now – Jede Stimme zählt beim Swisscom Innovationspreis

Es ist wieder soweit, der Swisscom Innovationspreis 2014 findet dieses Jahr am 6. November in Bern statt.

Es ist uns ein Anliegen, junge Talente zu fördern und ausserordentliche Leistungen zu belohnen. Deshalb verschenken wir zum achten Mal in Folge die grosszügige Summe von 10‘000 CHF für die beste eingereichte Master – oder Bachelorarbeit im Bereich ICT.

Mit deiner Stimme kannst auch du beeinflussen, wer das Preisgeld mit nach Hause nehmen darf. 🙂

35 Studierende haben dieses Jahr ihre wissenschaftlichen Projekte eingereicht, aber nur drei haben es ins Finale geschafft. Lasst uns einen Blick auf die eingereichten Projekte und deren Autoren werfen. 🙂

Projekt Nr. 1: Soziale Netzwerke im Internet der Dinge

Wer steckt hinter Projekt Nr. 1?

Mein Name ist Raphael Thommen. Ich habe diesen September mein Masterstudium in Business Innovation an der Universität St.Gallen (HSG) abgeschlossen. Zuvor habe ich – neben einigen Praktika und Auslandaufenthalten in den USA und Australien – den Bachelor in Betriebswirtschaft ebenfalls an der Universität St.Gallen absolviert. Während meines Masterstudiums durchlief ich zudem die Design Thinking Ausbildung des Instituts für Wirtschaftsinformatik der HSG in Zusammenarbeit mit der Stanford University.

SIP1

Meine Master-Arbeit zum Thema “Soziale Netzwerke im Internet der Dinge” schrieb ich am Institut für Technologiemanagement im Internet of Things & Services Lab von Prof. Dr. Fleisch und Ass. Prof. Dr. Wortmann. Dort war ich für das Projekt „Smart Home Security Community“ verantwortlich, welches eine möglichst praxisorientierte Umsetzung und Prüfung der Idee eines community-basierten Smart-Home-Sicherheitssystems zum Ziel hatte.

Worum geht es in deiner Arbeit?

Ein grundlegendes Problem, mit dem sich Sicherheitssysteme konfrontiert sehen, ist die Häufigkeit von Fehlalarmen. Bisher von der Wissenschaft verfolgte Lösungen dieser Problematik basieren hauptsächlich auf technischen Ansätzen, von welchen sich bislang allerdings keiner durchsetzen konnte. Entsprechend präsentiert die vorliegende Arbeit einen völlig neuen Lösungsansatz. Dabei werden die Vorteile von Online-Nachbarschaftscommunities mit denen von Smart-Home-Sicherheitssystemen kombiniert. Das Ergebnis der Arbeit ist ein voll funktionsfähiger Prototyp eines community-basierten Smart-Home-Sicherheitssystems, der in einem Feldtest mit fünf Nachbarhäusern und insgesamt 14 Personen in einem Quartier getestet und weiterentwickelt wurde. Der Prototyp setzt sich dabei aus Hard- (Bewegungs- und Türsensoren) und Softwarekomponenten (eigens entwickelte App) zusammen. Nachbarn können sich damit zu lokalen Sicherheitsnetzwerken zusammenschliessen. Schlagen die Sensoren im Verdachtsfall Alarm, werden nebst den Hausbewohnern auch die vernetzten Nachbarn alarmiert. Diese können einen Alarm im Zweifelsfall vor Ort validieren. Die Stärken des entwickelten Prototyps liegen dabei insbesondere im Preis, im lokalen Wissen, in der Reaktionszeit und im gegenseitigen Vertrauen.

Projekt Nr. 2: Meteorological Path Planning Using Dynamic Programming for a Solar-Powered Atlantic-Crossing Unmanned Aerial

Und wer steckt hinter Projekt Nr. 2?

Mein Name ist Lukas Wirth, ich bin 25 Jahre alt, komme ursprünglich aus Chur aber wohne seit Beginn meines Studiums vor 5 Jahren in Winterthur. Ich habe letzten Mai an der ETH den Master in Maschinenbau abgeschlossen.

SIP2

Durch meine Begeisterung für Robotik und Regelungstechnik und mein Interesse an Modellbau waren solarbetriebene unbemannte Flugzeuge das perfekte Gebiet für meine Masterarbeit. In meiner Freizeit spiele ich Fussball beim FC Winterthur 2, gehe aber auch gerne mal Tennis spielen oder geniesse ein gemütliches, gutes Essen.

Worum geht es in deiner Arbeit?

An solarbetriebenen unbemannten Flugzeugen wird derzeit intensiv geforscht. Durch ihre Fähigkeit, nur mit Sonnenenergie mehrere Tage oder Wochen in der Luft zu bleiben, sind sie geeignet für Such- und Rettungsmissionen oder den Aufbau von Kommunikationsnetzwerken. Auch grosse Firmen wie Google und Facebook sind daran interessiert, solche Flugzeuge an Stelle von Satelliten für die Verbreitung des Internets zu verwenden. An der ETH wird ein Flugzeug entwickelt, das nächsten Sommer völlig autonom und nur mit Sonnenenergie den Atlantik überqueren soll. Da diese Flugzeuge extrem leicht und langsam sind, ist es wichtig, meteorologische Prognosen bei der Einsatzplanung zu berücksichtigen. Meine Arbeit war die Entwicklung einer Software, die vollautomatisch die neusten Wetterprognosen analysiert und eine optimale, sichere Route für das Flugzeug findet. Dabei werden verschiedene Aspekte wie Wind, Regen, Sonneneinstrahlung und Gewitter berücksichtigt. Ausserdem kann während des Fluges die Route bei Wetteränderungen neu berechnet und per Satellitenkommunikation an das Flugzeug geschickt werden. Sie Software könnte ausserdem für die Routenplanung von diversen Flugzeugen (z.B. Solar Impulse), Zeppelinen oder Segelschiffen (z.B. Alinghi) benutzt werden.

Last but not least, project nr. 3: In air gesture around unmodified mobile devices

Who are you?

Hi, my name is Jie Song and I am originally from China. I grew up in a small town in China and then I moved to Shanghai for my bachelor study which majored in Mechanical Engineering. During my bachelor, I exchanged to Politecnico di Milano for one year, where I got attracted by the beautiful European environment. Then I decided to pursue my master degree at ETH Zurich. My master programme is Robotics, Systems and Control.

SIP3

During the master programme, I am mainly focusing on Artificial Intelligence stuff, which inspires me to devote my energy into making fancy and useful stuff to make our life better. Then I came with the idea to make our interaction with mobile devices in a richer way rather than just relying on the touch screen. This early year, I followed Prof. Otmar Hilliges and also collaborated with Microsoft Research Cambridge for my master thesis: In air gestures around the mobile devices, which aims to extend the interaction space into 3D space around the devices by the state-of-art Machine Learning techs.

Can you explain us, what your submitted project is about?

Today’s mobile devices have realized the vision of ubiquitous access to information. Data is now literally at our fingertips no matter where we are. It is clear that these devices have already changed the way how we consume and produce information.

However, the question of how best to interact with mobile content is far from solved. While direct touch interaction is clearly intuitive and popular, it also comes with drawbacks.

In particular, as mobile devices continue to be miniaturized, touchscreen real-estate becomes increasingly limited, leading to smaller on-screen targets and fingers causing occlusions of displayed content. This can be an issue during prolonged interaction, for example, while reading on a mobile device or when attempting to perform complex manipulations that require many on-screen controls.

Our solution is based on a novel machine learning algorithm extending the interaction space around mobile devices from just touch screen. The technique uses only the RGB camera now commonplace on off-the-shelf mobile devices. Our algorithm robustly recognizes a wide range of in-air gestures, supporting user variation, and varying lighting conditions. Our goal is not to replace the touchscreen as primary input device but to complement it and to enrich the interaction vocabulary. While touch input works well in many scenarios, there are numerous interaction tasks such as mode switches, application and task management, menu selection and certain types of navigation, where touch input can be cumbersome and the size of mobile devices, and hence that of on-screen controls, becomes problematic. We argue that such tasks and interactions can be complemented well by sporadic, low-effort gesturing behind or in front of the device. For example, while sitting comfortably on a couch a quick flick of the wrist behind the phone may be used to advance the page in an e-book. Similarly, while using touch to pan a map, symbolic gestures could be used to adjust the map-viewing mode, to adjust the zoom level or to enable additional data views such as traffic information. Furthermore, we present a number of compelling interaction scenarios that would be difficult to achieve with a touchscreen only. For example, the non-dominant hand can be used to invoke and control a fish-eye lens while the touch screen may be used to select targets in the magnified region.

Das sind die drei eingereichten Arbeiten. Wer am 6. November die 10‘000 CHF mit nach Hause nehmen darf, könnt ihr mitbestimmen. Nebst einer hochkarätigen Jury aus Mitarbeitenden von Swisscom und Mitgliedern von ICTnet, zählt auch das online Voting als eine ganze Stimme.

Welche Arbeit hat dir am besten gefallen und sollte mit 10 000 CHF prämiert werden? Hier geht’s zum Voting! 

 

Möchtest du Live am Finale mit dabei sein und interessierst dich für den Anlass. Dann melde dich bei tulu.hamidi@swisscom.com .

Achtung, die Plätze sind begrenzt! Ich drücke unseren Finalisten an dieser Stelle die Daumen und freue mich, die drei am 6. November kennenzulernen.