Willkommen bei WCM
Um alle Funktionen dieser Website nutzen zu können müssen Sie sich Einloggen oder Registrieren. Die Registrierung ist unverbindlich und dauert nur einen Moment.
540 Seiten « < 16 17 18 19 > »
Neue ABBYY OCR-Applikation für Microsoft Windows 8 Touch-Oberfläche
Veröffentlicht am 24.04.2013 00:04:11
Der Dienst von ABBYY FineReader Touch kann über den Windows Store bezogen werden und ist eine der ersten OCR-Anwendungen, die das neue Windows-Betriebssystem und dessen neu entwickelte Benutzeroberfläche für Geräte mit Touchscreens unterstützen.
ABBYY FineReader Touch ist kompatibel mit allen Geräten, die mit dem neuen Betriebssystem Microsoft Windows 8 laufen. Anwender können dabei verarbeitete Dateien in Cloud-Speichersysteme, wie beispielsweise Dropbox, Evernote, Google Drive und Microsoft SkyDrive exportieren oder die fertigen Dokumente auf der lokalen Festplatte ihres Tablets oder Computers speichern.
ABBYY FineReader Touch ist der ideale Helfer für Personen, die für ihre Arbeit Dokumente digitalisieren oder in editierbaren Formaten speichern möchten, sowie für Studenten und Schüler bei der Vorbereitung von Berichten und Forschungspapieren.
Die Applikation verarbeitet die Bilder in der ABBYY Cloud und bietet Texterkennung in 42 Sprachen, auch bei mehrsprachigen Dokumenten. Da Formatierungsattribute, wie etwa Überschriften, Aufzählungs- und Nummernlisten, Spalten, Tabellen oder Bilder, sowie das Layout von Dokumenten bei der Umwandlung präzise übernommen werden, kann eine Vielzahl von Dokumententypen exakt verarbeitet werden.
"Eine einfache Bedienung und Benutzerfreundlichkeit waren bei der Entwicklung dieser Anwendung unser Hauptanliegen. Das Produkt ist mit allen Vorteilen eines Cloud-Dienstes ausgestattet. Die Anwendung benötigt nur wenig Rechnerressourcen, da die Verarbeitung größtenteils auf Microsoft Windows Azure läuft", sagt Sergey Popov, Director of FineReader Products Department, ABBYY.
"Wir sind davon überzeugt, dass Benutzer von Windows-Geräten weltweit von der neu entwickelten Cloud-basierten OCR-Anwendung unseres strategischen Partners profitieren werden", kommentiert Mikhail Chernomordikov, Evangelism Unit Lead, Microsoft Russland. "Die neue Windows-Benutzeroberfläche, für die ABBYY FineReader Touch speziell entwickelt wurde, gewährleistet unkompliziertes Arbeiten mit Dokumenten. Die Windows-Azure-Plattform bietet einfachen Zugriff auf Dokumente sowie schnelle und leistungsstarke Verarbeitung."
ABBYY FineReader Touch kann einfach vom Windows Store heruntergeladen und installiert werden. Die Anwendung wird mit einem flexiblen Preismodell auf Guthabenbasis angeboten, mit dem Anwender nur für tatsächlich verarbeitete Seiten zahlen. Dabei rangieren die Preise für die Dokumentenumwandlung etwa zwischen 3,50 Euro für 50 Seiten und 7,00 Euro für 200 Seiten. Anwender, die nur gelegentlich gute OCR benötigen, können so sinnvoll Geld sparen. Jeder registrierte Benutzer erhält ein gewisses Freikontingent an Seiten zur kostenlosen Nutzung.
Veröffentlicht am 24.04.2013 00:04:11
Der Dienst von ABBYY FineReader Touch kann über den Windows Store bezogen werden und ist eine der ersten OCR-Anwendungen, die das neue Windows-Betriebssystem und dessen neu entwickelte Benutzeroberfläche für Geräte mit Touchscreens unterstützen.
ABBYY FineReader Touch ist kompatibel mit allen Geräten, die mit dem neuen Betriebssystem Microsoft Windows 8 laufen. Anwender können dabei verarbeitete Dateien in Cloud-Speichersysteme, wie beispielsweise Dropbox, Evernote, Google Drive und Microsoft SkyDrive exportieren oder die fertigen Dokumente auf der lokalen Festplatte ihres Tablets oder Computers speichern.
ABBYY FineReader Touch ist der ideale Helfer für Personen, die für ihre Arbeit Dokumente digitalisieren oder in editierbaren Formaten speichern möchten, sowie für Studenten und Schüler bei der Vorbereitung von Berichten und Forschungspapieren.
Die Applikation verarbeitet die Bilder in der ABBYY Cloud und bietet Texterkennung in 42 Sprachen, auch bei mehrsprachigen Dokumenten. Da Formatierungsattribute, wie etwa Überschriften, Aufzählungs- und Nummernlisten, Spalten, Tabellen oder Bilder, sowie das Layout von Dokumenten bei der Umwandlung präzise übernommen werden, kann eine Vielzahl von Dokumententypen exakt verarbeitet werden.
"Eine einfache Bedienung und Benutzerfreundlichkeit waren bei der Entwicklung dieser Anwendung unser Hauptanliegen. Das Produkt ist mit allen Vorteilen eines Cloud-Dienstes ausgestattet. Die Anwendung benötigt nur wenig Rechnerressourcen, da die Verarbeitung größtenteils auf Microsoft Windows Azure läuft", sagt Sergey Popov, Director of FineReader Products Department, ABBYY.
"Wir sind davon überzeugt, dass Benutzer von Windows-Geräten weltweit von der neu entwickelten Cloud-basierten OCR-Anwendung unseres strategischen Partners profitieren werden", kommentiert Mikhail Chernomordikov, Evangelism Unit Lead, Microsoft Russland. "Die neue Windows-Benutzeroberfläche, für die ABBYY FineReader Touch speziell entwickelt wurde, gewährleistet unkompliziertes Arbeiten mit Dokumenten. Die Windows-Azure-Plattform bietet einfachen Zugriff auf Dokumente sowie schnelle und leistungsstarke Verarbeitung."
ABBYY FineReader Touch kann einfach vom Windows Store heruntergeladen und installiert werden. Die Anwendung wird mit einem flexiblen Preismodell auf Guthabenbasis angeboten, mit dem Anwender nur für tatsächlich verarbeitete Seiten zahlen. Dabei rangieren die Preise für die Dokumentenumwandlung etwa zwischen 3,50 Euro für 50 Seiten und 7,00 Euro für 200 Seiten. Anwender, die nur gelegentlich gute OCR benötigen, können so sinnvoll Geld sparen. Jeder registrierte Benutzer erhält ein gewisses Freikontingent an Seiten zur kostenlosen Nutzung.
Sicherheitsrisiko: Kritik an AR-Brillen wächst
Veröffentlicht am 24.04.2013 00:03:59
Mountain View/Foothill Ranch - Der Hype um Augmented-Reality-Brillen (AR) à la "Google Glass" könnte bereits zu einem sehr frühen Zeitpunkt deutlich ausgebremst werden. Während der Internetkonzern schon damit begonnen hat, die ersten Vorserien-Modelle an Early Adopters auszuliefern, wird die Kritik in Bezug auf die Sicherheitsproblematik derartiger "wearable devices" immer lauter. "Bei der Nutzung der Hightech-Displays werden die User zu stark von ihrer Umgebung abgelenkt", so der Tenor der Experten. Besonders hoch wird das Gefahrenpotenzial bei schnellen Bewegungen wie etwa beim Sport oder beim Autofahren eingeschätzt.
"Die gleichzeitige Verarbeitung zweier unterschiedlicher Informationsströme ist - so verführerisch das auch klingen mag - nicht möglich", zitiert die New York Times David Strayer, Neurowissenschaftler an der University of Utah, der sich mittlerweile seit mehr als zwei Jahren mit dem Aufmerksamkeitsthema beschäftigt. Gemeint ist damit die Vermischung von realer Umgebungssituation und virtuell eingeblendeten AR-Daten. Als Beispiel verweist der Forscher etwa auf entsprechend aufgepeppte Hightech-Gadgets für den Skisport. "Wer so etwas nutzt, fährt tatsächlich blind und wird einen Buckel übersehen oder in jemanden hineinfahren", ist Strayer überzeugt. "Auch der kürzeste Blick auf die eingeblendeten Informationen beeinträchtigt das Sichtfeld und die Konzentration", so der Experte.
Auf Seiten der Hersteller scheint man diese Kritik bislang jedenfalls noch nicht recht ernstzunehmen. In Anbetracht des Umstandes, dass die ersten Google-Glass-Geräte bereits ausgeliefert werden und somit auch bald auf den Nasen von Autofahrern sitzen könnten, wird in den USA aber schon laut über ein Verbot der Datenbrillen nachgedacht. Auch hierzulande geben sich Experten äußerst skeptisch: "Wenn es um die Nutzung von Multimediaanwendungen im Auto geht, gilt es immer auch den Sicherheitsaspekt zu beachten", stellt beispielsweise Max Lang, Cheftechniker beim ÖAMTC klar. Diese seien besonders problematisch, wenn sie die Konzentration des Autofahrers reduzieren.
Auch das US-amerikanische Sport- und Bekleidungsunternehmen Oakley, das an einer eigenen AR-Brille arbeitet, muss auf deren Verpackung einen auf den ersten Blick etwas wunderlichen Sicherheitshinweis abdrucken. "Verwenden Sie dieses Produkt nicht während des Skifahrens", lautet die Warnung. Der Hersteller sieht sich dabei als Opfer von Anwälten und strengen rechtlichen Vorgaben. "Natürlich sind unsere Datenbrillen zum Skifahren und Snowboarden geeignet", kontert Chris Petrillo, Product Manager bei Oakley.
Wie auch immer das Rennen zwischen Sicherheitsadvokaten und Herstellern ausgehen wird, die Nachfrage nach AR-Brillen ist ungebrochen. Industrieanalysten schätzen die Gesamtzahl von Kunden, die aktuell derartige Geräte nutzen, auf mehrere hunderttausend Menschen. Der Entwicklungstrend zeigt dabei steil nach oben. Wie das US-Marktforschungsunternehmen Juniper Research in einem aktuellen Bericht prognostiziert, sollen bis zum Jahr 2017 bereits insgesamt an die 70 Mio. derartiger Produkte über die weltweiten Ladentische gewandert sein.
Veröffentlicht am 24.04.2013 00:03:59
Mountain View/Foothill Ranch - Der Hype um Augmented-Reality-Brillen (AR) à la "Google Glass" könnte bereits zu einem sehr frühen Zeitpunkt deutlich ausgebremst werden. Während der Internetkonzern schon damit begonnen hat, die ersten Vorserien-Modelle an Early Adopters auszuliefern, wird die Kritik in Bezug auf die Sicherheitsproblematik derartiger "wearable devices" immer lauter. "Bei der Nutzung der Hightech-Displays werden die User zu stark von ihrer Umgebung abgelenkt", so der Tenor der Experten. Besonders hoch wird das Gefahrenpotenzial bei schnellen Bewegungen wie etwa beim Sport oder beim Autofahren eingeschätzt.
"Die gleichzeitige Verarbeitung zweier unterschiedlicher Informationsströme ist - so verführerisch das auch klingen mag - nicht möglich", zitiert die New York Times David Strayer, Neurowissenschaftler an der University of Utah, der sich mittlerweile seit mehr als zwei Jahren mit dem Aufmerksamkeitsthema beschäftigt. Gemeint ist damit die Vermischung von realer Umgebungssituation und virtuell eingeblendeten AR-Daten. Als Beispiel verweist der Forscher etwa auf entsprechend aufgepeppte Hightech-Gadgets für den Skisport. "Wer so etwas nutzt, fährt tatsächlich blind und wird einen Buckel übersehen oder in jemanden hineinfahren", ist Strayer überzeugt. "Auch der kürzeste Blick auf die eingeblendeten Informationen beeinträchtigt das Sichtfeld und die Konzentration", so der Experte.
Auf Seiten der Hersteller scheint man diese Kritik bislang jedenfalls noch nicht recht ernstzunehmen. In Anbetracht des Umstandes, dass die ersten Google-Glass-Geräte bereits ausgeliefert werden und somit auch bald auf den Nasen von Autofahrern sitzen könnten, wird in den USA aber schon laut über ein Verbot der Datenbrillen nachgedacht. Auch hierzulande geben sich Experten äußerst skeptisch: "Wenn es um die Nutzung von Multimediaanwendungen im Auto geht, gilt es immer auch den Sicherheitsaspekt zu beachten", stellt beispielsweise Max Lang, Cheftechniker beim ÖAMTC klar. Diese seien besonders problematisch, wenn sie die Konzentration des Autofahrers reduzieren.
Auch das US-amerikanische Sport- und Bekleidungsunternehmen Oakley, das an einer eigenen AR-Brille arbeitet, muss auf deren Verpackung einen auf den ersten Blick etwas wunderlichen Sicherheitshinweis abdrucken. "Verwenden Sie dieses Produkt nicht während des Skifahrens", lautet die Warnung. Der Hersteller sieht sich dabei als Opfer von Anwälten und strengen rechtlichen Vorgaben. "Natürlich sind unsere Datenbrillen zum Skifahren und Snowboarden geeignet", kontert Chris Petrillo, Product Manager bei Oakley.
Wie auch immer das Rennen zwischen Sicherheitsadvokaten und Herstellern ausgehen wird, die Nachfrage nach AR-Brillen ist ungebrochen. Industrieanalysten schätzen die Gesamtzahl von Kunden, die aktuell derartige Geräte nutzen, auf mehrere hunderttausend Menschen. Der Entwicklungstrend zeigt dabei steil nach oben. Wie das US-Marktforschungsunternehmen Juniper Research in einem aktuellen Bericht prognostiziert, sollen bis zum Jahr 2017 bereits insgesamt an die 70 Mio. derartiger Produkte über die weltweiten Ladentische gewandert sein.
Stop Killer Robots: Kampagne gegen Kampfroboter
Veröffentlicht am 24.04.2013 00:03:47
London/Berlin - In London ist gestern, Dienstag, die internationale Kampagne "Stop Killer Robots"
http://www.stopkillerrobots.org offiziell gestartet. Erklärtes Ziel der beteiligten Nichtregierungsorganisationen (NGOs) ist es, schon präventiv ein internationales Verbot von vollständig autonomen Waffen zu erwirken. "Bewaffnete Roboter, die gezielt und ohne menschliches Zutun töten können, dürfen niemals gebaut werden", fordert Steve Goose, Direktor der Abteilung Waffen bei Human Rights Watch http://www.hrw.org.
Die Forderung kommt vor dem Hintergrund eines technisch immer moderner ausgerüsteten Militärs. Die britischen Streitkräfte haben erst jüngst ihre neuesten Mini-Drohnen für die Aufklärung präsentiert und auch Länder wie die USA, Russland und China arbeiten an zunehmend eigenständigem Kriegsgerät. "Bei vollautonomen Waffensystemen sollte schon jetzt eine Grenze gezogen werden", meint Goose. Die NGOs urgieren, ein präventives und umfassendes Verbot vollständig autonomer Waffen durch einen internationalen Vertrag zu regeln und zudem in nationaler Gesetzgebung zu verankern.
Die "Terminator"-Filmreihe hat ein erschreckendes Bild davon gezeichnet, welch verheerende Auswirkung vollautonomes Kriegsgerät haben könnte. Derart eigenständige humanoide Kampfroboter gibt es in der realen Welt noch nicht und sie sollten nach Ansicht der an Stop Killer Robots beteiligten Organisationen auch Science Fiction bleiben. "Menschen dürfen niemals die Entscheidung über Leben und Tod an Maschinen delegieren", bringt Thomas Küchenmeister von Facing Finance http://www.facing-finance.de, dem deutschen Partner der Kampagne, eine Kernforderung auf den Punkt.
Ein Argument gegen Killer-Roboter ist, dass sie zur völkerrechtlich vorgeschriebenen Unterscheidung zwischen militärischen und zivilen Zielen nicht fähig wären. Ein weiterer Grund, warum die NGOs ein präventives Verbot von Killer-Robotern fordern, ist zudem die Angst vor einem möglichen "Roboterwettrüsten". Sollte ein Land vollständig autonome Waffen einsetzen, könnten andere Staaten politische Widerstände überwinden und mit eigenen Systemen reagieren. "Es ist höchste Zeit für ein Verbot, bevor neue Investitionen, die technologische Dynamik und Veränderungen der militärischen Doktrin dies unmöglich machen", mahnt daher Goose.
Der UN-Sonderberichterstatter über außergerichtliche, summarische oder willkürliche Hinrichtungen, Christof Heyns, wird zur zweiten Sitzung des UN-Menschenrechtsrats Ende Mai in Genf einen Bericht über autonome Waffen vorlegen. Dieser soll Handlungsempfehlungen für Regierungen in Hinblick auf Politik und Gesetzgebung zu vollständig autonomen Waffen enthalten. Somit gibt es zumindest die Hoffnung, dass es schnell Bewegung in Sachen internationaler Abkommen gibt.
Das wäre auch dringend nötig, denn die Gefahr erscheint zunehmend real, waren doch auf der weltgrößten Waffenmesse IDEX 2013 in Abu Dhabi unbemannte Waffensysteme laut Facing Finance bereits das große Thema und ein Trend zu ihrer Eigenständigkeit absehbar. Ein deutscher Hersteller habe sogar informell angegeben, dass er seine Systeme bereits jetzt auch in einem autonomen Modus anbieten könne, wenn die Politik es wünscht.
Für die Aktivisten hinter Stop Killer Robots ist damit klar, dass es zu eben diesem Wunsch nicht kommen darf - im Gegenteil, die Politik ist gefordert, sich klar gegen autonome Waffen zu stellen.
Veröffentlicht am 24.04.2013 00:03:47
London/Berlin - In London ist gestern, Dienstag, die internationale Kampagne "Stop Killer Robots"
http://www.stopkillerrobots.org offiziell gestartet. Erklärtes Ziel der beteiligten Nichtregierungsorganisationen (NGOs) ist es, schon präventiv ein internationales Verbot von vollständig autonomen Waffen zu erwirken. "Bewaffnete Roboter, die gezielt und ohne menschliches Zutun töten können, dürfen niemals gebaut werden", fordert Steve Goose, Direktor der Abteilung Waffen bei Human Rights Watch http://www.hrw.org.
Die Forderung kommt vor dem Hintergrund eines technisch immer moderner ausgerüsteten Militärs. Die britischen Streitkräfte haben erst jüngst ihre neuesten Mini-Drohnen für die Aufklärung präsentiert und auch Länder wie die USA, Russland und China arbeiten an zunehmend eigenständigem Kriegsgerät. "Bei vollautonomen Waffensystemen sollte schon jetzt eine Grenze gezogen werden", meint Goose. Die NGOs urgieren, ein präventives und umfassendes Verbot vollständig autonomer Waffen durch einen internationalen Vertrag zu regeln und zudem in nationaler Gesetzgebung zu verankern.
Die "Terminator"-Filmreihe hat ein erschreckendes Bild davon gezeichnet, welch verheerende Auswirkung vollautonomes Kriegsgerät haben könnte. Derart eigenständige humanoide Kampfroboter gibt es in der realen Welt noch nicht und sie sollten nach Ansicht der an Stop Killer Robots beteiligten Organisationen auch Science Fiction bleiben. "Menschen dürfen niemals die Entscheidung über Leben und Tod an Maschinen delegieren", bringt Thomas Küchenmeister von Facing Finance http://www.facing-finance.de, dem deutschen Partner der Kampagne, eine Kernforderung auf den Punkt.
Ein Argument gegen Killer-Roboter ist, dass sie zur völkerrechtlich vorgeschriebenen Unterscheidung zwischen militärischen und zivilen Zielen nicht fähig wären. Ein weiterer Grund, warum die NGOs ein präventives Verbot von Killer-Robotern fordern, ist zudem die Angst vor einem möglichen "Roboterwettrüsten". Sollte ein Land vollständig autonome Waffen einsetzen, könnten andere Staaten politische Widerstände überwinden und mit eigenen Systemen reagieren. "Es ist höchste Zeit für ein Verbot, bevor neue Investitionen, die technologische Dynamik und Veränderungen der militärischen Doktrin dies unmöglich machen", mahnt daher Goose.
Der UN-Sonderberichterstatter über außergerichtliche, summarische oder willkürliche Hinrichtungen, Christof Heyns, wird zur zweiten Sitzung des UN-Menschenrechtsrats Ende Mai in Genf einen Bericht über autonome Waffen vorlegen. Dieser soll Handlungsempfehlungen für Regierungen in Hinblick auf Politik und Gesetzgebung zu vollständig autonomen Waffen enthalten. Somit gibt es zumindest die Hoffnung, dass es schnell Bewegung in Sachen internationaler Abkommen gibt.
Das wäre auch dringend nötig, denn die Gefahr erscheint zunehmend real, waren doch auf der weltgrößten Waffenmesse IDEX 2013 in Abu Dhabi unbemannte Waffensysteme laut Facing Finance bereits das große Thema und ein Trend zu ihrer Eigenständigkeit absehbar. Ein deutscher Hersteller habe sogar informell angegeben, dass er seine Systeme bereits jetzt auch in einem autonomen Modus anbieten könne, wenn die Politik es wünscht.
Für die Aktivisten hinter Stop Killer Robots ist damit klar, dass es zu eben diesem Wunsch nicht kommen darf - im Gegenteil, die Politik ist gefordert, sich klar gegen autonome Waffen zu stellen.
Boston-Terror: FBI startet Biometrie-Offensive
Veröffentlicht am 24.04.2013 00:03:47
<p>Washington (pte024/22.04.2013/13:40) - Die tragischen Ereignisse rund um das Bombendrama von Boston und die letztendlich erfolgreiche Jagd nach den mutmaßlichen Tätern hat in den USA eine heftige Debatte um die Möglichkeiten moderner Videoüberwachungs- und Personenidentifizierungssysteme ausgelöst. Die bundespolizeiliche Ermittlungsbehörde FBI hat nun unter dem Titel "Next Generation Identification" (NGI) ein Milliarden Dollar teures Programm initiiert, das die technologische Entwicklung von ausgeklügelten biometrischen Informationssystemen vorantreiben soll. Ziel ist eine neuartige Fahndungs-Software, die es ermöglicht, hochgeladenes Foto- oder Videomaterial von Verdächtigen in Windeseile mit einer Datenbank von Millionen Bildern abzugleichen.
"Die Mission des NGI-Programms ist es, terroristische und kriminelle Aktivitäten zu reduzieren, indem die Möglichkeiten der biometrischen Identifizierung deutlich verbessert und ausgeweitet werden", heißt es auf der entsprechenden FBI-Webseite. Mithilfe der Initiative sollen letztendlich technische Lösungen gefunden werden, die heute bereits eingesetzte Hilfsmittel wie das Integrated Automated Fingerprint Identification System (IAFIS) längerfristig ersetzen können. Um Verdächtige möglichst rasch zu identifizieren, sollen aber auch völlig neue Funktionalitäten entwickelt werden. Wie diese genau aussehen könnten, bleibt aber im Dunkeln. Fest steht lediglich, dass die noch zu programmierenden Fahndungssysteme gleich mehrere biometrische Informationsdaten erfassen und auswerten können sollen.
Um die ambitionierten Pläne umzusetzen, hat die US-Behörde bereits mehrere einschlägige Kooperationspartner an Land gezogen, die sich über teilweise mehrjährige Verträge in Millionenhöhe freuen dürfen. Genannt werden unter anderem die Rüstungskonzerne Lockheed Martin und BAE Systems, der IT-Riese IBM sowie der Beratungs- und Technologiedienstleister Accenture.
Dass das FBI gerade zum jetzigen Zeitpunkt Milliarden Dollar in die Hand nimmt, um die Effizienz von technischen Hilfsmitteln zur Verbrecherjagd zu verbessern, kommt natürlich nicht von ungefähr. So haben die jüngsten Bombenanschläge in Boston offensichtlich klar aufgezeigt, dass derartige Systeme im Ernstfall noch nicht den gewünschten, schnellen Erfolg versprechen. "Das Leistungsvermögen solcher Lösungen hängt sehr stark von der jeweiligen Bildqualität ab", zitiert Businessweek aus einem internen FBI-Papier. Im Fall der Terrorattacken in Massachusetts sei das vorhandene Bildmaterial der Überwachungskameras etwa nur schwer zu verwerten gewesen, so die US-Behörde.
Veröffentlicht am 24.04.2013 00:03:47
<p>Washington (pte024/22.04.2013/13:40) - Die tragischen Ereignisse rund um das Bombendrama von Boston und die letztendlich erfolgreiche Jagd nach den mutmaßlichen Tätern hat in den USA eine heftige Debatte um die Möglichkeiten moderner Videoüberwachungs- und Personenidentifizierungssysteme ausgelöst. Die bundespolizeiliche Ermittlungsbehörde FBI hat nun unter dem Titel "Next Generation Identification" (NGI) ein Milliarden Dollar teures Programm initiiert, das die technologische Entwicklung von ausgeklügelten biometrischen Informationssystemen vorantreiben soll. Ziel ist eine neuartige Fahndungs-Software, die es ermöglicht, hochgeladenes Foto- oder Videomaterial von Verdächtigen in Windeseile mit einer Datenbank von Millionen Bildern abzugleichen.
"Die Mission des NGI-Programms ist es, terroristische und kriminelle Aktivitäten zu reduzieren, indem die Möglichkeiten der biometrischen Identifizierung deutlich verbessert und ausgeweitet werden", heißt es auf der entsprechenden FBI-Webseite. Mithilfe der Initiative sollen letztendlich technische Lösungen gefunden werden, die heute bereits eingesetzte Hilfsmittel wie das Integrated Automated Fingerprint Identification System (IAFIS) längerfristig ersetzen können. Um Verdächtige möglichst rasch zu identifizieren, sollen aber auch völlig neue Funktionalitäten entwickelt werden. Wie diese genau aussehen könnten, bleibt aber im Dunkeln. Fest steht lediglich, dass die noch zu programmierenden Fahndungssysteme gleich mehrere biometrische Informationsdaten erfassen und auswerten können sollen.
Um die ambitionierten Pläne umzusetzen, hat die US-Behörde bereits mehrere einschlägige Kooperationspartner an Land gezogen, die sich über teilweise mehrjährige Verträge in Millionenhöhe freuen dürfen. Genannt werden unter anderem die Rüstungskonzerne Lockheed Martin und BAE Systems, der IT-Riese IBM sowie der Beratungs- und Technologiedienstleister Accenture.
Dass das FBI gerade zum jetzigen Zeitpunkt Milliarden Dollar in die Hand nimmt, um die Effizienz von technischen Hilfsmitteln zur Verbrecherjagd zu verbessern, kommt natürlich nicht von ungefähr. So haben die jüngsten Bombenanschläge in Boston offensichtlich klar aufgezeigt, dass derartige Systeme im Ernstfall noch nicht den gewünschten, schnellen Erfolg versprechen. "Das Leistungsvermögen solcher Lösungen hängt sehr stark von der jeweiligen Bildqualität ab", zitiert Businessweek aus einem internen FBI-Papier. Im Fall der Terrorattacken in Massachusetts sei das vorhandene Bildmaterial der Überwachungskameras etwa nur schwer zu verwerten gewesen, so die US-Behörde.
Virtual Reality: Begehbare Welten auf kleinem Raum
Veröffentlicht am 24.04.2013 00:03:03
Wien - In einem relativ kleinen physischen Raum schier unbegrenzte virtuelle Welten begehen können, das klingt sehr nach Science Fiction und Holo-Deck in "Star Trek". Doch zumindest für 3D-Welten, die Nutzer mittels VR-Brille (Virtual Reality) erkunden, macht ein neues System genau das möglich. "Wir erzeugen dazu dynamisch die Gänge zwischen Räumen", erklärt Hannes Kaufmann vom Institut für Softwaretechnik und interaktive Systeme der TU Wien.
So entsteht ein virtuelles Labyrinth, dessen Geometrie eigentlich unmöglich ist, da sich die virtuellen Zimmer und Korridore überlappen. Doch genau dadurch passen sie stets in den real zur Verfügung stehenden Platz - und Nutzern fällt diese Tatsache nicht wirklich auf. So ergibt sich ein breites Anwendungspotenzial für die Lösung, die mit einem kalifornischen Partner entwickelt wurde, das von virtuellen Museen über Spiele und Entertainment bis hin zur Medizin reicht.
Begehbare virtuelle Welten haben normalerweise das Problem, dass der real verfügbare Platz sie einengt. Doch in einem rund zehn mal zehn Meter großen Testbereich am Institute for Creative Technologies der University of Southern California können User mit 3D-Brille praktisch beliebig umfangreiche Korridorsysteme erkunden. Dazu beobachtet das System die Bewegungen des Nutzers mittels Kamera und berechnet Position und Form von virtuellen Gängen in Echtzeit stets so, dass Nutzer nie an reale Wände stößt - egal, wie weit er sich in der virtuellen Welt zu bewegen scheint.
"Wir können und wollen nicht bestehende Gebäude nachbilden", betont Kaufmann. Schließlich funktioniert das System nur, weil sich die virtuellen Korridore und Räume auf eine Weise überlappen, die in der Realität gar nicht möglich ist. Doch im Normalfall wird all das Nutzern nicht auffallen. "Ist unsere Konzentration auf Objekte gelenkt, bemerken wir kleinere Änderungen im Raum nicht, die außerhalb unseres Blickfelds liegen", erklärt der Informatiker. Eben dies nutzt das System aus. So entsteht für Nutzer eine virtuelle Welt, die subjektiv viel größer wirkt als die Fläche, auf der sie sich wirklich bewegen.
Interessant ist der Ansatz beispielsweise für virtuelle Museen, bei denen es primär um die Exponate geht. "Das Schöne an VR ist, dass man sehr wohl ein Gefühl der Weite bekommt", meint zudem Kaufmann - also auch beeindruckende Hallen großer Museen simuliert werden könnten. Naheliegend sind auch Gaming und Entertainment, zunächst wohl eher im Markting als daheim. "Weitere Anwendungsmöglichkeiten wären Therapie und Training", sagt der Informatiker. Reha-Patienten, die ein gewisses Bewegungspensum brauchen, könnten beispielsweise durch attraktive Umgebungen wandeln, statt ihre Einheiten gelangweilt auf dem Laufband abzuspulen.
"Wir könnten auch Außenräume simulieren", betont Kaufmann in diesem Zusammenhang. Denkbar wären beispielsweise Parkanlagen, in denen größere Flächen durch Hecken-Gänge verbunden sind. Im Vergleich zum aktuellen Prototypen könnten die virtuellen Welten auch passend zur jeweiligen Anwendung optisch merklich ansprechender gestaltet werden. "Wir denken auch an eine flexiblere, portable Tracking-Lösung", so der Forscher. Damit wäre es möglich, beispielsweise in einem Festsaal eine VR-Installation zu machen, statt nur in einem vorgegebenen Labor.<
Veröffentlicht am 24.04.2013 00:03:03
Wien - In einem relativ kleinen physischen Raum schier unbegrenzte virtuelle Welten begehen können, das klingt sehr nach Science Fiction und Holo-Deck in "Star Trek". Doch zumindest für 3D-Welten, die Nutzer mittels VR-Brille (Virtual Reality) erkunden, macht ein neues System genau das möglich. "Wir erzeugen dazu dynamisch die Gänge zwischen Räumen", erklärt Hannes Kaufmann vom Institut für Softwaretechnik und interaktive Systeme der TU Wien.
So entsteht ein virtuelles Labyrinth, dessen Geometrie eigentlich unmöglich ist, da sich die virtuellen Zimmer und Korridore überlappen. Doch genau dadurch passen sie stets in den real zur Verfügung stehenden Platz - und Nutzern fällt diese Tatsache nicht wirklich auf. So ergibt sich ein breites Anwendungspotenzial für die Lösung, die mit einem kalifornischen Partner entwickelt wurde, das von virtuellen Museen über Spiele und Entertainment bis hin zur Medizin reicht.
Begehbare virtuelle Welten haben normalerweise das Problem, dass der real verfügbare Platz sie einengt. Doch in einem rund zehn mal zehn Meter großen Testbereich am Institute for Creative Technologies der University of Southern California können User mit 3D-Brille praktisch beliebig umfangreiche Korridorsysteme erkunden. Dazu beobachtet das System die Bewegungen des Nutzers mittels Kamera und berechnet Position und Form von virtuellen Gängen in Echtzeit stets so, dass Nutzer nie an reale Wände stößt - egal, wie weit er sich in der virtuellen Welt zu bewegen scheint.
"Wir können und wollen nicht bestehende Gebäude nachbilden", betont Kaufmann. Schließlich funktioniert das System nur, weil sich die virtuellen Korridore und Räume auf eine Weise überlappen, die in der Realität gar nicht möglich ist. Doch im Normalfall wird all das Nutzern nicht auffallen. "Ist unsere Konzentration auf Objekte gelenkt, bemerken wir kleinere Änderungen im Raum nicht, die außerhalb unseres Blickfelds liegen", erklärt der Informatiker. Eben dies nutzt das System aus. So entsteht für Nutzer eine virtuelle Welt, die subjektiv viel größer wirkt als die Fläche, auf der sie sich wirklich bewegen.
Interessant ist der Ansatz beispielsweise für virtuelle Museen, bei denen es primär um die Exponate geht. "Das Schöne an VR ist, dass man sehr wohl ein Gefühl der Weite bekommt", meint zudem Kaufmann - also auch beeindruckende Hallen großer Museen simuliert werden könnten. Naheliegend sind auch Gaming und Entertainment, zunächst wohl eher im Markting als daheim. "Weitere Anwendungsmöglichkeiten wären Therapie und Training", sagt der Informatiker. Reha-Patienten, die ein gewisses Bewegungspensum brauchen, könnten beispielsweise durch attraktive Umgebungen wandeln, statt ihre Einheiten gelangweilt auf dem Laufband abzuspulen.
"Wir könnten auch Außenräume simulieren", betont Kaufmann in diesem Zusammenhang. Denkbar wären beispielsweise Parkanlagen, in denen größere Flächen durch Hecken-Gänge verbunden sind. Im Vergleich zum aktuellen Prototypen könnten die virtuellen Welten auch passend zur jeweiligen Anwendung optisch merklich ansprechender gestaltet werden. "Wir denken auch an eine flexiblere, portable Tracking-Lösung", so der Forscher. Damit wäre es möglich, beispielsweise in einem Festsaal eine VR-Installation zu machen, statt nur in einem vorgegebenen Labor.<
Connecting Software: Am Sprung ins Silicon Valley
Veröffentlicht am 24.04.2013 00:02:43
Wien - Die Idee zu dem revolutionären Software-Verbindungsprodukt kam dem Gründer der Connecting Software KG aus eigener Erfahrung: "Wir haben festgestellt, dass gerade Klein- und Mittelbetriebe mit großen Problemen bei der Verbindung der unterschiedlichen Softwareprodukte konfrontiert sind. Hier fehlte bisher ganz klar ein Verbindungsstück, das wir mit unserer Connect Bridge nun geschaffen haben." Nach rund vier Jahren Entwicklungsarbeit begann das Unternehmen im Sommer 2012 mit der Vermarktung des neuen Produkts. Die noch junge Erfolgsgeschichte brachte bereits diverse Partnerschaften, etwa mit k.section und NAVAX am österreichischen Markt und die Aufnahme in das renommierte und globale Business-Critical SharePoint Programm von Microsoft.
In aktuellen Umfragen unter IT-Leitern steht das Problem der Softwareintegration ganz oben auf der Liste der Herausforderungen. Das Zusammenspiel der oft über Jahrzehnte gewachsenen Softwarelösungen und die laufende Pflege der Schnittstellen dazwischen ist für viele Unternehmen ein immenser Kostenfaktor.
"Wir adressieren genau diesen zentralen Problembereich moderner IT und helfen der IT-Abteilung bei der Bewältigung der weiter anwachsenden Schnittstellen zwischen schon länger im Einsatz befindlicher Software und ganz aktuellen Softwareprodukten", unterstreicht Firmengründer Berndorfer. Mit der Connect Bridge lassen sich rasch Synchronisationen, Integrationen oder Workflows zwischen Softwarelösungen erstellen. Dabei sinkt der Integrationsaufwand zwischen zwei Softwareprodukten durchschnittlich um 40 bis 60 Prozent.
Ein weiterer Vorteil der Lösung liegt darin, dass sich alle gängigen Softwarelösungen der letzten 20 Jahre mit modernen Lösungen verbinden lassen. Auch die Verbindung zwischen Cloud-Software und selbst gewarteter Software ist einfach möglich. Der Trick dabei: ODBC, JDBC oder REST WebServices kann jede Software der letzten 20 Jahre. Die Connect Bridge besteht aus einem sehr schlanken Clientteil in den genannten Technologien und einem Serverteil, der mittels Plugin gängige Software über deren wohldefinierte und öffentliche Schnittstellen SQL-fähig macht. So kann man auf Microsoft Exchange, Sharepoint, Dynamics CRM, Dynamics NAV, Oracle, Bing, u.a. mit einfachen SQL Abfragen und -Kommandos zugreifen und Konnektoren für andere Integrationen können auch selbst entwickelt werden.
Gerade auch Unternehmen mit verschiedenen Geschäftsbereichen und damit einhergehenden unterschiedlichen Softwarelösungen kämpfen im Alltag oft mit der Verbindung dieser IT-Welten, um den Gesamtnutzen für das Unternehmen zu erhöhen. Nur aus der Verknüpfung der in den Systemen vorhandenen Informationen lassen sich nämlich strategische Entscheidungen rasch fällen, was die Produktivität und den ROI (return on investment) steigern hilft. "Unsere Connect Bridge vereinfacht die Verbindung unterschiedlichster Softwarelösungen zum Beispiel mit dem SharePoint Server deutlich und hilft Unternehmen dabei, sich ganz auf ihre eigentlichen Geschäftsaufgaben konzentrieren zu können", so der Software-Integrations-Experte.
Der SharePoint Server von Microsoft ist eine Business Plattform für die Zusammenarbeit im Unternehmen und im Web. Wie Umfragen in Unternehmen aber zeigen, werden die Funktionen dieser Technologie viel zu wenig genutzt. Daher startete Microsoft das Business-Critical SharePoint Programm: "Wir sind sehr stolz, als kleines österreichisches Unternehmen in dieses weltweit angelegte Programm aufgenommen worden zu sein. Das beweist die Nützlichkeit unseres Produkts für die Steigerung der Effizienz in der IT", so Berndorfer.
Gestärkt mit dieser Auszeichnung und der damit gezeigten Expertise freut sich Berndorfer darauf, den hohen wirtschaftlichen Nutzen der Connect Bridge nicht nur im Silicon Valley vermitteln zu können.
Veröffentlicht am 24.04.2013 00:02:43
Wien - Die Idee zu dem revolutionären Software-Verbindungsprodukt kam dem Gründer der Connecting Software KG aus eigener Erfahrung: "Wir haben festgestellt, dass gerade Klein- und Mittelbetriebe mit großen Problemen bei der Verbindung der unterschiedlichen Softwareprodukte konfrontiert sind. Hier fehlte bisher ganz klar ein Verbindungsstück, das wir mit unserer Connect Bridge nun geschaffen haben." Nach rund vier Jahren Entwicklungsarbeit begann das Unternehmen im Sommer 2012 mit der Vermarktung des neuen Produkts. Die noch junge Erfolgsgeschichte brachte bereits diverse Partnerschaften, etwa mit k.section und NAVAX am österreichischen Markt und die Aufnahme in das renommierte und globale Business-Critical SharePoint Programm von Microsoft.
In aktuellen Umfragen unter IT-Leitern steht das Problem der Softwareintegration ganz oben auf der Liste der Herausforderungen. Das Zusammenspiel der oft über Jahrzehnte gewachsenen Softwarelösungen und die laufende Pflege der Schnittstellen dazwischen ist für viele Unternehmen ein immenser Kostenfaktor.
"Wir adressieren genau diesen zentralen Problembereich moderner IT und helfen der IT-Abteilung bei der Bewältigung der weiter anwachsenden Schnittstellen zwischen schon länger im Einsatz befindlicher Software und ganz aktuellen Softwareprodukten", unterstreicht Firmengründer Berndorfer. Mit der Connect Bridge lassen sich rasch Synchronisationen, Integrationen oder Workflows zwischen Softwarelösungen erstellen. Dabei sinkt der Integrationsaufwand zwischen zwei Softwareprodukten durchschnittlich um 40 bis 60 Prozent.
Ein weiterer Vorteil der Lösung liegt darin, dass sich alle gängigen Softwarelösungen der letzten 20 Jahre mit modernen Lösungen verbinden lassen. Auch die Verbindung zwischen Cloud-Software und selbst gewarteter Software ist einfach möglich. Der Trick dabei: ODBC, JDBC oder REST WebServices kann jede Software der letzten 20 Jahre. Die Connect Bridge besteht aus einem sehr schlanken Clientteil in den genannten Technologien und einem Serverteil, der mittels Plugin gängige Software über deren wohldefinierte und öffentliche Schnittstellen SQL-fähig macht. So kann man auf Microsoft Exchange, Sharepoint, Dynamics CRM, Dynamics NAV, Oracle, Bing, u.a. mit einfachen SQL Abfragen und -Kommandos zugreifen und Konnektoren für andere Integrationen können auch selbst entwickelt werden.
Gerade auch Unternehmen mit verschiedenen Geschäftsbereichen und damit einhergehenden unterschiedlichen Softwarelösungen kämpfen im Alltag oft mit der Verbindung dieser IT-Welten, um den Gesamtnutzen für das Unternehmen zu erhöhen. Nur aus der Verknüpfung der in den Systemen vorhandenen Informationen lassen sich nämlich strategische Entscheidungen rasch fällen, was die Produktivität und den ROI (return on investment) steigern hilft. "Unsere Connect Bridge vereinfacht die Verbindung unterschiedlichster Softwarelösungen zum Beispiel mit dem SharePoint Server deutlich und hilft Unternehmen dabei, sich ganz auf ihre eigentlichen Geschäftsaufgaben konzentrieren zu können", so der Software-Integrations-Experte.
Der SharePoint Server von Microsoft ist eine Business Plattform für die Zusammenarbeit im Unternehmen und im Web. Wie Umfragen in Unternehmen aber zeigen, werden die Funktionen dieser Technologie viel zu wenig genutzt. Daher startete Microsoft das Business-Critical SharePoint Programm: "Wir sind sehr stolz, als kleines österreichisches Unternehmen in dieses weltweit angelegte Programm aufgenommen worden zu sein. Das beweist die Nützlichkeit unseres Produkts für die Steigerung der Effizienz in der IT", so Berndorfer.
Gestärkt mit dieser Auszeichnung und der damit gezeigten Expertise freut sich Berndorfer darauf, den hohen wirtschaftlichen Nutzen der Connect Bridge nicht nur im Silicon Valley vermitteln zu können.
Brillenloses System soll 3D-Trend wiederbeleben
Veröffentlicht am 22.04.2013 13:02:20
Las Vegas - 3D-Fernsehen, eines der großen Trendthemen der vergangenen Jahre, hat mittlerweile stark an Boden verloren. Während Branchenexperten dem dreidimensionalen TV-Genuss kaum noch Zukunftspotenzial zuschreiben, geben sich die Technikingenieure der Dolby Laboratories http://www.dolby.com nicht so leicht geschlagen. Sie haben in Kooperation mit dem Elektronikriesen Philips http://www.philips.com ein neues 3D-Format entwickelt, das die Wiedergabe qualitativ hochwertiger brillenloser 3D-Videoinhalte auf verschiedenen Endgeräten ermöglichen soll. Ein erster Prototyp des Systems, der kürzlich auf der National Association of Broadcasters Show (NAB) in Las Vegas
zu sehen war, konnte die anwesenden Industrieanalysten durchaus beeindrucken.
"Wir bei Dolby sind davon überzeugt, dass 3D-Fernsehen, bei dem spezielle Brillen benötigt werden, in den Haushalten der Konsumenten nicht funktionieren wird", zitiert das US-Branchenblatt Csilla Andersen, Product Marketing Manager Dolby 3D. Mit dem neuen brillenlosen Format wolle man sicherstellen, dass dreidimensionale Inhalte auf Dolby-3D-fähigen Fernsehgeräten, Smartphones, PCs und Tablets bestmöglich dargestellt werden. "Die Studios brauchen schließlich auch eine Möglichkeit, um 3D-Inhalte einfach und ohne Brille liefern zu können", betont Andersen im Rahmen der NAB-Präsentation.
Das Grundprinzip des neuen autostereoskopischen Systems basiert auf einer Technologie, die es erlaubt, dreidimensionale Videoinhalte zu verschlüsseln und in Echtzeit wieder zu entschlüsseln. Dieser Ansatz soll nicht nur Bilder mit lebensechtem Realismus produzieren, sondern ermöglicht auch den Verzicht auf jegliche zusätzliche Hardware wie spezielle 3D-Brillen. Einziger Wermutstropfen: Wer diese Technologie nutzen möchte, braucht ein Display mit mindestens vierfacher HD-Auflösung (4K). Um nämlich eine 3D-Betrachtung aus möglichst vielen unterschiedlichen Winkeln zu ermöglichen, wird das Bild aufgeteilt und in verschiedene Richtungen ausgesandt. Bei diesem Prozess geht ein Großteil der Auflösung verloren.
Das Dolby-3D-Format, das Inhalten grundlegende Wiedergabeinformationen hinzufügt, soll laut Auskunft des Herstellers zuerst über ein Lizenzprogramm für Early Adopters verfügbar sein. "Die genauen Spezifikationen hierfür werden gegen Jahresende veröffentlicht", verrät Andersen. Die ersten Endgeräte, die das neue Dolby-3D-Format unterstützen, könnten dann "im Laufe der nächsten ein zwei Jahre" in den Wohnzimmern der User stehen, so die Product Managerin.
Veröffentlicht am 22.04.2013 13:02:20
Las Vegas - 3D-Fernsehen, eines der großen Trendthemen der vergangenen Jahre, hat mittlerweile stark an Boden verloren. Während Branchenexperten dem dreidimensionalen TV-Genuss kaum noch Zukunftspotenzial zuschreiben, geben sich die Technikingenieure der Dolby Laboratories http://www.dolby.com nicht so leicht geschlagen. Sie haben in Kooperation mit dem Elektronikriesen Philips http://www.philips.com ein neues 3D-Format entwickelt, das die Wiedergabe qualitativ hochwertiger brillenloser 3D-Videoinhalte auf verschiedenen Endgeräten ermöglichen soll. Ein erster Prototyp des Systems, der kürzlich auf der National Association of Broadcasters Show (NAB) in Las Vegas
zu sehen war, konnte die anwesenden Industrieanalysten durchaus beeindrucken.
"Wir bei Dolby sind davon überzeugt, dass 3D-Fernsehen, bei dem spezielle Brillen benötigt werden, in den Haushalten der Konsumenten nicht funktionieren wird", zitiert das US-Branchenblatt Csilla Andersen, Product Marketing Manager Dolby 3D. Mit dem neuen brillenlosen Format wolle man sicherstellen, dass dreidimensionale Inhalte auf Dolby-3D-fähigen Fernsehgeräten, Smartphones, PCs und Tablets bestmöglich dargestellt werden. "Die Studios brauchen schließlich auch eine Möglichkeit, um 3D-Inhalte einfach und ohne Brille liefern zu können", betont Andersen im Rahmen der NAB-Präsentation.
Das Grundprinzip des neuen autostereoskopischen Systems basiert auf einer Technologie, die es erlaubt, dreidimensionale Videoinhalte zu verschlüsseln und in Echtzeit wieder zu entschlüsseln. Dieser Ansatz soll nicht nur Bilder mit lebensechtem Realismus produzieren, sondern ermöglicht auch den Verzicht auf jegliche zusätzliche Hardware wie spezielle 3D-Brillen. Einziger Wermutstropfen: Wer diese Technologie nutzen möchte, braucht ein Display mit mindestens vierfacher HD-Auflösung (4K). Um nämlich eine 3D-Betrachtung aus möglichst vielen unterschiedlichen Winkeln zu ermöglichen, wird das Bild aufgeteilt und in verschiedene Richtungen ausgesandt. Bei diesem Prozess geht ein Großteil der Auflösung verloren.
Das Dolby-3D-Format, das Inhalten grundlegende Wiedergabeinformationen hinzufügt, soll laut Auskunft des Herstellers zuerst über ein Lizenzprogramm für Early Adopters verfügbar sein. "Die genauen Spezifikationen hierfür werden gegen Jahresende veröffentlicht", verrät Andersen. Die ersten Endgeräte, die das neue Dolby-3D-Format unterstützen, könnten dann "im Laufe der nächsten ein zwei Jahre" in den Wohnzimmern der User stehen, so die Product Managerin.
Intelligentes E-Mail-Management für mehr Privatsphäre
Veröffentlicht am 22.04.2013 13:02:20
Wien - Tagtäglich prasselt eine Unmenge an E-Mails auf Verantwortliche eines Unternehmens ein. Da fällt es nicht immer leicht, wichtige und dringende E-Mails von weniger zeitkritischen oder privaten Nachrichten zu unterscheiden. Die Gefahr, dass vertrauliche Nachrichten von der Assistenz gelesen oder unter Umständen gar im E-Mail Postfach übersehen werden, ist groß. Was also tun, wenn das Postfach des Chefs überquillt, vertrauliche Nachrichten aber vertraulich bleiben sollen? Retarus schafft Abhilfe und hat nach den Entwicklungen "E-Mail Size Reduction" und "Quiet Time" ein weiteres E-Mail Management-Werkzeug aus der Taufe gehoben.
Speziell für Führungskräfte, die über Assistenzen verfügen, aber mehr Privatsphäre benötigen, haben die Messaging-Spezialisten mit "Retarus Inbox Assist" ein komfortables Werkzeug für ein effizientes E-Mail-Management entwickelt. Es regelt den eingehenden E-Mail-Verkehr, stellt private E-Mails oder VIP-Nachrichten ausschließlich dem adressierten Empfänger zu, während normale Geschäftskorrespondenz automatisch an die Assistenz weitergeleitet wird. So erhalten Geschäftsführer, Abteilungsleiter und andere Führungskräfte nicht nur die benötigte Privatsphäre, sie werden auch von weniger kritischer Korrespondenz entlastet. Die Inbox wird weiterhin von der Assistenz vorsortiert und bearbeitet, ohne dass diese auf die Mailbox des Vorgesetzten zugreifen muss.
Von der Weiterleitung auszunehmende Adressen können schnell und einfach über das bereits bekannte "Enterprise Administration Service"-Portal von Retarus definiert werden. Dazu lassen sich einzelne Adressen eingeben, beliebige Adressbücher abgleichen, zum Beispiel aus Microsoft Outlook, Lotus Notes oder Apple iCloud, oder Adressen aus Google Contacts automatisch synchronisieren.
Veröffentlicht am 22.04.2013 13:02:20
Wien - Tagtäglich prasselt eine Unmenge an E-Mails auf Verantwortliche eines Unternehmens ein. Da fällt es nicht immer leicht, wichtige und dringende E-Mails von weniger zeitkritischen oder privaten Nachrichten zu unterscheiden. Die Gefahr, dass vertrauliche Nachrichten von der Assistenz gelesen oder unter Umständen gar im E-Mail Postfach übersehen werden, ist groß. Was also tun, wenn das Postfach des Chefs überquillt, vertrauliche Nachrichten aber vertraulich bleiben sollen? Retarus schafft Abhilfe und hat nach den Entwicklungen "E-Mail Size Reduction" und "Quiet Time" ein weiteres E-Mail Management-Werkzeug aus der Taufe gehoben.
Speziell für Führungskräfte, die über Assistenzen verfügen, aber mehr Privatsphäre benötigen, haben die Messaging-Spezialisten mit "Retarus Inbox Assist" ein komfortables Werkzeug für ein effizientes E-Mail-Management entwickelt. Es regelt den eingehenden E-Mail-Verkehr, stellt private E-Mails oder VIP-Nachrichten ausschließlich dem adressierten Empfänger zu, während normale Geschäftskorrespondenz automatisch an die Assistenz weitergeleitet wird. So erhalten Geschäftsführer, Abteilungsleiter und andere Führungskräfte nicht nur die benötigte Privatsphäre, sie werden auch von weniger kritischer Korrespondenz entlastet. Die Inbox wird weiterhin von der Assistenz vorsortiert und bearbeitet, ohne dass diese auf die Mailbox des Vorgesetzten zugreifen muss.
Von der Weiterleitung auszunehmende Adressen können schnell und einfach über das bereits bekannte "Enterprise Administration Service"-Portal von Retarus definiert werden. Dazu lassen sich einzelne Adressen eingeben, beliebige Adressbücher abgleichen, zum Beispiel aus Microsoft Outlook, Lotus Notes oder Apple iCloud, oder Adressen aus Google Contacts automatisch synchronisieren.
Modeindustrie spezialisiert sich auf 3D-Druck
Veröffentlicht am 19.04.2013 15:16:21
San Francisco/Wien - Die Modeindustrie verlagert sich zunehmend auf den technologischen Bereich und setzt nun auf 3D-gedruckte Kleidung. Das Label "Continuum" http://continuumfashion.com in San Francisco verfolgt das Motto: "Fashion for the Digital Age". Es lässt Kunden ihre eigene Kleidung online designen und druckt ihnen das Ergebnis mithilfe von 3D-Druckern aus. Da diese Technologie immer weiter fortgeschritten und somit billiger geworden ist, können sie sich mehr Kleinunternehmer jeglicher Branchen leisten. Auf der Webseite von Continuum können sich die Konsumenten ihre gewünschten Produkte bestellen, die in der Firma gedruckt und lediglich zusammengenäht werden. Zu den Waren gehören unter anderem Kleider, Schuhe oder Bikinis.
"3D ist die Produktionsform der unmittelbaren Zukunft, also der nächsten fünf bis 15 Jahre. Vor allem Designermode als Kleinserienproduktion stell ich mir sehr spannend und interessant vor", schildert Helmut Eder, Besitzer des Wiener 3D-Druck-Unternehmens http://3d-druck-wien.at, im Interview. Die Kunden könnten sich demnach mit Einzelstücken schmücken. "Man könnte beispielsweise auch Unterwäsche aus Gold oder Silber mit unterschiedlichem Design drucken", sagt er.
Im Fall von Continuum würden die Kleider EDV-mäßig konstruiert und der gewünschte Stoff mit dem richtigen Schnitt ausgedruckt. "Das hat jedoch nichts mit dem 3D-Druck zu tun. Der Bikini, der Schmuck und die Schuhe sind aber sehr wohl typische 3D-Anwendungen", führt der Experte aus.
Der 3D-Druck nutzt nicht nur der 3D-Visualisierung, damit Kunden Modelle nicht nur am Bildschirm bewundern können, sondern auch in der Hand - oder in diesem Fall am Körper. "Außerdem können Prototypen billig und schnell hergestellt werden. Das kann einige Stunden oder einen Tag dauern", ergänzt Eder. Auch für die Modeindustrie sieht der Fachmann die Technologie als trendige und aussichtsreiche Produktionsmethode.
Veröffentlicht am 19.04.2013 15:16:21
San Francisco/Wien - Die Modeindustrie verlagert sich zunehmend auf den technologischen Bereich und setzt nun auf 3D-gedruckte Kleidung. Das Label "Continuum" http://continuumfashion.com in San Francisco verfolgt das Motto: "Fashion for the Digital Age". Es lässt Kunden ihre eigene Kleidung online designen und druckt ihnen das Ergebnis mithilfe von 3D-Druckern aus. Da diese Technologie immer weiter fortgeschritten und somit billiger geworden ist, können sie sich mehr Kleinunternehmer jeglicher Branchen leisten. Auf der Webseite von Continuum können sich die Konsumenten ihre gewünschten Produkte bestellen, die in der Firma gedruckt und lediglich zusammengenäht werden. Zu den Waren gehören unter anderem Kleider, Schuhe oder Bikinis.
"3D ist die Produktionsform der unmittelbaren Zukunft, also der nächsten fünf bis 15 Jahre. Vor allem Designermode als Kleinserienproduktion stell ich mir sehr spannend und interessant vor", schildert Helmut Eder, Besitzer des Wiener 3D-Druck-Unternehmens http://3d-druck-wien.at, im Interview. Die Kunden könnten sich demnach mit Einzelstücken schmücken. "Man könnte beispielsweise auch Unterwäsche aus Gold oder Silber mit unterschiedlichem Design drucken", sagt er.
Im Fall von Continuum würden die Kleider EDV-mäßig konstruiert und der gewünschte Stoff mit dem richtigen Schnitt ausgedruckt. "Das hat jedoch nichts mit dem 3D-Druck zu tun. Der Bikini, der Schmuck und die Schuhe sind aber sehr wohl typische 3D-Anwendungen", führt der Experte aus.
Der 3D-Druck nutzt nicht nur der 3D-Visualisierung, damit Kunden Modelle nicht nur am Bildschirm bewundern können, sondern auch in der Hand - oder in diesem Fall am Körper. "Außerdem können Prototypen billig und schnell hergestellt werden. Das kann einige Stunden oder einen Tag dauern", ergänzt Eder. Auch für die Modeindustrie sieht der Fachmann die Technologie als trendige und aussichtsreiche Produktionsmethode.
Gängige WLAN-Router leicht zu hacken
Veröffentlicht am 18.04.2013 18:59:14
Baltimore/Jena - Sicherheitsspezialisten bei Independent Security Evaluators (ISE) haben festgestellt, dass etliche gängige WLAN-Router für daheim und Kleinbetriebe aufgrund kritischer Schwachstellen leicht zu hacken sind. Alle 13 untersuchten Geräte, darunter aktuelle Modelle unter anderem von Belkin, Netgear und Linksys, sind demnach für Angriffe aus dem lokalen Netzwerk anfällig, immerhin elf auch für Attacken aus der Ferne. Die ISE-Experten nehmen nicht zuletzt die Hersteller in die Pflicht, um für mehr Sicherheit zu sorgen - denn Endkunden können das schon aufgrund fehlender technischer Kenntnisse oft nur bedingt.
"Das Ergebnis überrascht nicht wirklich. Viele Anwender schließen den Router an und lassen ihn mit den gelieferten Standardeinstellungen laufen - im guten Glauben, dass diese vom Hersteller optimal eingestellt sind", bestätigt Thomas Uhlemann, Product Marketing Manager bei ESET. Dazu komme, dass viele Hersteller Hintertüren für Support- und Wartungszugriffe einbauen. "Diese unselige Kombination vereinfacht Angreifern die Arbeit enorm", so der Experte. Dabei sind WLAN-Router für Cyberkriminelle attraktive Ziele.
"WLAN-Router bieten Cyberkriminellen - allen voran den Botnetz-Betreibern - eine lohnende Angriffsfläche", warnt Uhlemann. Denn die Geräte sind fast permanent online und ihr Arbeitsspeicher wird in der Regel nicht auf Malware gescannt - oft ist das gar nicht möglich. "So können Hacker die gekaperten Geräte vom Nutzer unbemerkt beispielsweise für Distributed-Denial-of-Service-Attacken auf fremde Server einsetzen oder gar ganze Datenströme, wie beim Online-Banking, auf infizierte Server umleiten", sagt der ESET-Spezialist.
Der Aufwand, den Kriminelle zum Hacken eines WLAN-Routers betreiben müssen, ist erschreckend gering. Zwar erfordern der ISE-Studie zufolge die meisten Attacken, dass sich der Angreifer auf dem Router authentifizieren kann - aber das ist in der Praxis oft kein Hindernis, weil mit Standardeinstellungen auch Standardpasswörter funktionieren. Besonders kritisch ist dem US-Unternehmen zufolge, dass der WLAN-Router auch als Firewall und oft einziger Schutz gegen Attacken auf das lokale Netzwerk fungiert.
Freilich können auch Durchschnittsuser zumindest einfache Schritte setzen, um ihr Risiko zu minimieren. "Bei längerer Abwesenheit wie Urlaub oder Dienstreise nehmen Sie am besten den Router von der Stromversorgung", empfiehlt Uhlemann. Denn das leert den Arbeitsspeicher und Manipulationen gehen automatisch verloren. Besser ist es, sich etwas intensiver mit dem Router zu befassen und zumindest Administratornamen und -passwort zu ändern. Außerdem empfiehlt der ESET-Experte, Verschlüsselung möglichst mit WPA2 zu nutzen und den Netzwerkzugriff mithilfe der einzigartigen MAC-Adressen auf eigene Computer, Tablets und Smartphone zu beschränken.
Veröffentlicht am 18.04.2013 18:59:14
Baltimore/Jena - Sicherheitsspezialisten bei Independent Security Evaluators (ISE) haben festgestellt, dass etliche gängige WLAN-Router für daheim und Kleinbetriebe aufgrund kritischer Schwachstellen leicht zu hacken sind. Alle 13 untersuchten Geräte, darunter aktuelle Modelle unter anderem von Belkin, Netgear und Linksys, sind demnach für Angriffe aus dem lokalen Netzwerk anfällig, immerhin elf auch für Attacken aus der Ferne. Die ISE-Experten nehmen nicht zuletzt die Hersteller in die Pflicht, um für mehr Sicherheit zu sorgen - denn Endkunden können das schon aufgrund fehlender technischer Kenntnisse oft nur bedingt.
"Das Ergebnis überrascht nicht wirklich. Viele Anwender schließen den Router an und lassen ihn mit den gelieferten Standardeinstellungen laufen - im guten Glauben, dass diese vom Hersteller optimal eingestellt sind", bestätigt Thomas Uhlemann, Product Marketing Manager bei ESET. Dazu komme, dass viele Hersteller Hintertüren für Support- und Wartungszugriffe einbauen. "Diese unselige Kombination vereinfacht Angreifern die Arbeit enorm", so der Experte. Dabei sind WLAN-Router für Cyberkriminelle attraktive Ziele.
"WLAN-Router bieten Cyberkriminellen - allen voran den Botnetz-Betreibern - eine lohnende Angriffsfläche", warnt Uhlemann. Denn die Geräte sind fast permanent online und ihr Arbeitsspeicher wird in der Regel nicht auf Malware gescannt - oft ist das gar nicht möglich. "So können Hacker die gekaperten Geräte vom Nutzer unbemerkt beispielsweise für Distributed-Denial-of-Service-Attacken auf fremde Server einsetzen oder gar ganze Datenströme, wie beim Online-Banking, auf infizierte Server umleiten", sagt der ESET-Spezialist.
Der Aufwand, den Kriminelle zum Hacken eines WLAN-Routers betreiben müssen, ist erschreckend gering. Zwar erfordern der ISE-Studie zufolge die meisten Attacken, dass sich der Angreifer auf dem Router authentifizieren kann - aber das ist in der Praxis oft kein Hindernis, weil mit Standardeinstellungen auch Standardpasswörter funktionieren. Besonders kritisch ist dem US-Unternehmen zufolge, dass der WLAN-Router auch als Firewall und oft einziger Schutz gegen Attacken auf das lokale Netzwerk fungiert.
Freilich können auch Durchschnittsuser zumindest einfache Schritte setzen, um ihr Risiko zu minimieren. "Bei längerer Abwesenheit wie Urlaub oder Dienstreise nehmen Sie am besten den Router von der Stromversorgung", empfiehlt Uhlemann. Denn das leert den Arbeitsspeicher und Manipulationen gehen automatisch verloren. Besser ist es, sich etwas intensiver mit dem Router zu befassen und zumindest Administratornamen und -passwort zu ändern. Außerdem empfiehlt der ESET-Experte, Verschlüsselung möglichst mit WPA2 zu nutzen und den Netzwerkzugriff mithilfe der einzigartigen MAC-Adressen auf eigene Computer, Tablets und Smartphone zu beschränken.
Drei Viertel der CIOs geben dieses Jahr mehr für IT aus
Veröffentlicht am 18.04.2013 18:59:14
Das unabhängige Marktforschungsunternehmen Vanson Bourne befragte insgesamt 400 CIOs in Deutschland, Frankreich, den Vereinigten Arabischen Emiraten, Polen und Großbritannien. Die Befragten wurden gebeten, ihre fünf wichtigsten IT-Investitionen in den kommenden zwölf Monaten anzugeben. Als Top-Prioritäten kristallisierten sich dabei klar Virtualisierungs- und Konsolidierungsprogramme heraus.
Diese reihten sich wie folgt
* Server-Virtualisierung - 50 Prozent</p>
* Desktop-Virtualisierung - 40 Prozent</p>
* Speicher-Virtualisierung - 34 Prozent</p>
* Konsolidierung von Niederlassungen - 33 Prozent</p>
* Speicher-Konsolidierung - 33 Prozent</p>
Interessant auch der Kostenausblick der einzelnen Unternehmen:
* Zehn Prozent der befragten Unternehmen gaben an, sehr hohe Investitionen tätigen zu wollen, um die
Wettbewerbsfähigkeit ihres Unternehmens zu verbessern.
* 28 Prozent der befragten Unternehmen gaben an, dass die Themen Effizienz und Reduzierung der allgemeinen Ausgaben die wichtigsten Treiber für ihre Investitionen in den nächsten zwölf Monaten sind.
* 33 Prozent der befragten CIOs sagten, dass sie 2013 "vorsichtig" in IT investieren wollen, um ihre Organisation auf die Herausforderungen des nächsten Jahrzehnts vorzubereiten.
* 20 Prozent gehen davon aus, dass die Ausgaben auf dem gleichen Niveau wie in den letzten drei bis fünf Jahren bleiben werden.
* Nur neun Prozent der gesamten Stichprobe gaben an, ihr IT-Budget zu reduzieren und in den nächsten zwölf Monaten weniger ausgeben zu wollen.
"Die geplanten Investitionen konzentrieren sich offensichtlich in erster Linie auf das Thema Zentralisierung der Technologie, um wettbewerbsfähig zu bleiben. Die CIOs sind sich über die Kosten- und Zeitersparnis im Klaren, die Konsolidierung und Virtualisierung bewirken können. Ihnen ist jedoch auch klar, dass das Netzwerk optimiert werden muss, um die Anwendungs-Performance aufrechtzuerhalten und die Vorteile dieser Initiativen tatsächlich auszuschöpfen", sagt Willem Hendrickx, SVP EMEA bei Riverbed Technology. "Dies wird unterstrichen durch die Tatsache, dass 38 Prozent der CIOs in EMEA die Anwendungs-Performance über das WAN als Hindernis für die Konsolidierung benennt. Da immer mehr Services virtualisiert werden und damit die Abhängigkeit von webbasierten Tools steigt, ist die Optimierung des WAN wichtig, um wie gewohnt arbeiten zu können - auch wenn die technische Umgebung alles andere als gewöhnlich ist."
"Die Initiativen, die in Deutschland absolute Budget-Priorität haben, drehen sich rund um die Themen Konsolidierung und Virtualisierung", sagt Andreas Hartl, Regional Director Germany bei Riverbed. "Die wichtigsten Hürden, die Unternehmen derzeit aber noch an der Umsetzung hindern, sind die Komplexität und initialen Kosten, die solche Initiativen mit sich bringen. Hier müssen Anbieter die Unternehmen an die Hand nehmen, und sie besonders bei den Herausforderungen hinsichtlich der Komplexität unterstützen - und zwar mit Lösungen, die es Unternehmen ermöglichen, das meiste aus ihren Investitionen herauszuholen. Unternehmen, die mit dem Wettbewerb mithalten wollen, sind deshalb abhängig von Entwicklungen der Service Provider, die ihre Bemühungen im Zuge der Konsolidierung und Virtualisierung unterstützen."
Veröffentlicht am 18.04.2013 18:59:14
Das unabhängige Marktforschungsunternehmen Vanson Bourne befragte insgesamt 400 CIOs in Deutschland, Frankreich, den Vereinigten Arabischen Emiraten, Polen und Großbritannien. Die Befragten wurden gebeten, ihre fünf wichtigsten IT-Investitionen in den kommenden zwölf Monaten anzugeben. Als Top-Prioritäten kristallisierten sich dabei klar Virtualisierungs- und Konsolidierungsprogramme heraus.
Diese reihten sich wie folgt
* Server-Virtualisierung - 50 Prozent</p>
* Desktop-Virtualisierung - 40 Prozent</p>
* Speicher-Virtualisierung - 34 Prozent</p>
* Konsolidierung von Niederlassungen - 33 Prozent</p>
* Speicher-Konsolidierung - 33 Prozent</p>
Interessant auch der Kostenausblick der einzelnen Unternehmen:
* Zehn Prozent der befragten Unternehmen gaben an, sehr hohe Investitionen tätigen zu wollen, um die
Wettbewerbsfähigkeit ihres Unternehmens zu verbessern.
* 28 Prozent der befragten Unternehmen gaben an, dass die Themen Effizienz und Reduzierung der allgemeinen Ausgaben die wichtigsten Treiber für ihre Investitionen in den nächsten zwölf Monaten sind.
* 33 Prozent der befragten CIOs sagten, dass sie 2013 "vorsichtig" in IT investieren wollen, um ihre Organisation auf die Herausforderungen des nächsten Jahrzehnts vorzubereiten.
* 20 Prozent gehen davon aus, dass die Ausgaben auf dem gleichen Niveau wie in den letzten drei bis fünf Jahren bleiben werden.
* Nur neun Prozent der gesamten Stichprobe gaben an, ihr IT-Budget zu reduzieren und in den nächsten zwölf Monaten weniger ausgeben zu wollen.
"Die geplanten Investitionen konzentrieren sich offensichtlich in erster Linie auf das Thema Zentralisierung der Technologie, um wettbewerbsfähig zu bleiben. Die CIOs sind sich über die Kosten- und Zeitersparnis im Klaren, die Konsolidierung und Virtualisierung bewirken können. Ihnen ist jedoch auch klar, dass das Netzwerk optimiert werden muss, um die Anwendungs-Performance aufrechtzuerhalten und die Vorteile dieser Initiativen tatsächlich auszuschöpfen", sagt Willem Hendrickx, SVP EMEA bei Riverbed Technology. "Dies wird unterstrichen durch die Tatsache, dass 38 Prozent der CIOs in EMEA die Anwendungs-Performance über das WAN als Hindernis für die Konsolidierung benennt. Da immer mehr Services virtualisiert werden und damit die Abhängigkeit von webbasierten Tools steigt, ist die Optimierung des WAN wichtig, um wie gewohnt arbeiten zu können - auch wenn die technische Umgebung alles andere als gewöhnlich ist."
"Die Initiativen, die in Deutschland absolute Budget-Priorität haben, drehen sich rund um die Themen Konsolidierung und Virtualisierung", sagt Andreas Hartl, Regional Director Germany bei Riverbed. "Die wichtigsten Hürden, die Unternehmen derzeit aber noch an der Umsetzung hindern, sind die Komplexität und initialen Kosten, die solche Initiativen mit sich bringen. Hier müssen Anbieter die Unternehmen an die Hand nehmen, und sie besonders bei den Herausforderungen hinsichtlich der Komplexität unterstützen - und zwar mit Lösungen, die es Unternehmen ermöglichen, das meiste aus ihren Investitionen herauszuholen. Unternehmen, die mit dem Wettbewerb mithalten wollen, sind deshalb abhängig von Entwicklungen der Service Provider, die ihre Bemühungen im Zuge der Konsolidierung und Virtualisierung unterstützen."
Handy-Thermometer soll Krankheiten eindämmen
Veröffentlicht am 18.04.2013 18:58:58
Das Start-up Kinsa Health http://kinsahealth.com hat im Rahmen der DEMO Mobile sein "Smart Thermometer" vorgestellt - ein Fieberthermometer für das Smartphone. Es verspricht genaue Messungen und die Möglichkeit, Gesundheitsinfos mittels App mit anderen zu teilen und auch von anderen zu beziehen. So sollen User beispielsweise darüber im Bilde sein, welche Krankheiten gerade in ihrem Umfeld umgehen. Erklärtes Ziel des Unternehmens ist es, mittels Echtzeit-Gesundheitskarten die Ausbreitung von Infektionskrankheiten einzudämmen. Das Smartphone-Thermometer ist dazu gedacht, Fieber als frühes Signal zu erfassen.
<p>"Der Ansatz der Massen-Temperaturmessung ist interessant und kann bei Epidemien als Warnung bzw. zum Abschätzen des Ausmaßes einer Epidemie bei einer fieberhaften Erkrankung nützlich sein", bestätigt Florian Thalhammer, Infektiologe an der Medizinischen Universität Wien. Allerdings sei dazu erforderlich, dass sich wirklich viele Nutzer beteiligen, und dass der Ansatz nicht in die Datenschutz-Falle tappt.
Kinsas Smart Thermometer setzt voll auf die Smartphone-Anbindung, die über die Kopfhörer-Buchse erfolgt, und kommt daher ohne eigene Batterie, eigenes Display oder eigenen Prozessor aus. Daher fällt das Gerät laut Hersteller sehr kompakt und auch für Kinder bequem in der Anwendung aus. Das intelligente Fieberthermometer verspricht so aber nicht nur genaue Messungen, sondern dank begleitender App - die zunächst für iOS und dann für Android geplant ist - auch einfachen Zugang zu Informationen darüber, wie es um Krankheiten im eigenen Umfeld bestellt ist.
Die App verspricht nämlich nicht nur die Möglichkeit, Temperatur und Notizen über weitere Symptome mit dem eigenen Arzt zu teilen. User haben auch die Möglichkeit, private Gruppen beispielsweise für Arbeitskollegen oder Mitschüler einzurichten. Anonymisierte Daten erlauben hier, die Verbreitung von Grippe, Halsentzündungen und anderen Krankheiten im engeren persönlichen Umfeld zu verfolgen. Zudem soll die App einen Überblick darüber geben, welche Symptome und Erkrankungen gerade allgemein in der Gegend umgehen, wo der User wohnt.
Das Erfassen von Daten wie Fieber, noch bevor sich Nutzer tatsächlich an Ärzte wenden, soll auf Dauer große Vorteile eröffnen. "Die Daten, die eine Person bereitstellt, könnten der Schlüssel sein, um die Ausbreitung der Grippe oder anderer schlimmerer übertragbarer Krankheiten zu erkennen und zu lebensrettendem Einschreiten führen", meint Inder Singh, Gründer und CEO von Kinsa.
Eine Crowdfunding-Kampagne auf IndieGoGo buhlt jetzt um öffentliche Unterstützung, denn in den nächsten Jahren will das Unternehmen zehn Mio. Thermometer vertreiben.
Hohe Verkaufszahlen wären wichtig, wenn die Massen-Temperaturmessung wirklich etwas als Warnung vor möglichen Epidemien bringen soll. "Voraussetzung dafür ist, dass sich eine sehr große Anzahl an Patienten beteiligt, um Messfehler und Verzerrungen aufgrund zu kleiner Gruppengröße hintanzuhalten", erklärt Thalhammer. Entscheidend sei auch, dass das Thermometer gut gereinigt werden kann - es sollen ja damit keine Infektionen übertragen werden. "Eine weitere Frage ist natürlich der Datenschutz, ein heikles Thema bei Gesundheitsdaten - es kann auch einen solchen Ansatz zum Fall bringen", warnt der Experte.
Veröffentlicht am 18.04.2013 18:58:58
Das Start-up Kinsa Health http://kinsahealth.com hat im Rahmen der DEMO Mobile sein "Smart Thermometer" vorgestellt - ein Fieberthermometer für das Smartphone. Es verspricht genaue Messungen und die Möglichkeit, Gesundheitsinfos mittels App mit anderen zu teilen und auch von anderen zu beziehen. So sollen User beispielsweise darüber im Bilde sein, welche Krankheiten gerade in ihrem Umfeld umgehen. Erklärtes Ziel des Unternehmens ist es, mittels Echtzeit-Gesundheitskarten die Ausbreitung von Infektionskrankheiten einzudämmen. Das Smartphone-Thermometer ist dazu gedacht, Fieber als frühes Signal zu erfassen.
<p>"Der Ansatz der Massen-Temperaturmessung ist interessant und kann bei Epidemien als Warnung bzw. zum Abschätzen des Ausmaßes einer Epidemie bei einer fieberhaften Erkrankung nützlich sein", bestätigt Florian Thalhammer, Infektiologe an der Medizinischen Universität Wien. Allerdings sei dazu erforderlich, dass sich wirklich viele Nutzer beteiligen, und dass der Ansatz nicht in die Datenschutz-Falle tappt.
Kinsas Smart Thermometer setzt voll auf die Smartphone-Anbindung, die über die Kopfhörer-Buchse erfolgt, und kommt daher ohne eigene Batterie, eigenes Display oder eigenen Prozessor aus. Daher fällt das Gerät laut Hersteller sehr kompakt und auch für Kinder bequem in der Anwendung aus. Das intelligente Fieberthermometer verspricht so aber nicht nur genaue Messungen, sondern dank begleitender App - die zunächst für iOS und dann für Android geplant ist - auch einfachen Zugang zu Informationen darüber, wie es um Krankheiten im eigenen Umfeld bestellt ist.
Die App verspricht nämlich nicht nur die Möglichkeit, Temperatur und Notizen über weitere Symptome mit dem eigenen Arzt zu teilen. User haben auch die Möglichkeit, private Gruppen beispielsweise für Arbeitskollegen oder Mitschüler einzurichten. Anonymisierte Daten erlauben hier, die Verbreitung von Grippe, Halsentzündungen und anderen Krankheiten im engeren persönlichen Umfeld zu verfolgen. Zudem soll die App einen Überblick darüber geben, welche Symptome und Erkrankungen gerade allgemein in der Gegend umgehen, wo der User wohnt.
Das Erfassen von Daten wie Fieber, noch bevor sich Nutzer tatsächlich an Ärzte wenden, soll auf Dauer große Vorteile eröffnen. "Die Daten, die eine Person bereitstellt, könnten der Schlüssel sein, um die Ausbreitung der Grippe oder anderer schlimmerer übertragbarer Krankheiten zu erkennen und zu lebensrettendem Einschreiten führen", meint Inder Singh, Gründer und CEO von Kinsa.
Eine Crowdfunding-Kampagne auf IndieGoGo buhlt jetzt um öffentliche Unterstützung, denn in den nächsten Jahren will das Unternehmen zehn Mio. Thermometer vertreiben.
Hohe Verkaufszahlen wären wichtig, wenn die Massen-Temperaturmessung wirklich etwas als Warnung vor möglichen Epidemien bringen soll. "Voraussetzung dafür ist, dass sich eine sehr große Anzahl an Patienten beteiligt, um Messfehler und Verzerrungen aufgrund zu kleiner Gruppengröße hintanzuhalten", erklärt Thalhammer. Entscheidend sei auch, dass das Thermometer gut gereinigt werden kann - es sollen ja damit keine Infektionen übertragen werden. "Eine weitere Frage ist natürlich der Datenschutz, ein heikles Thema bei Gesundheitsdaten - es kann auch einen solchen Ansatz zum Fall bringen", warnt der Experte.
BitTorrent kommt in den Browser
Veröffentlicht am 17.04.2013 20:26:32
San Francisco/Düsseldorf - Das Unternehmen BitTorrent http://bittorrent.com hat den Beta-Start seiner Browser-Erweiterung "Surf" für Chrome und Firefox bekannt gegeben. Damit wird der Browser selbst zum Client für das bekannte Filesharing-Protokoll, inklusive umfassender Suchfunktion. Somit können User einfach ohne zusätzliche Software BitTorrent nutzen. Die Erweiterung umfasst zudem eine Vorschlagfunktion, die speziell Partner-Künstlern, die BitTorrent als legalen Vertriebskanal nutzen, zu mehr Sichtbarkeit verhelfen soll - womit Surf auch dazu beitragen soll, dass BitTorrent sein Piraterie-Image abstreifen kann.
Diesbezüglich gibt es aber noch Nachbesserungsbedarf. "Eine Unterscheidung der Quellen in legale und solche ohne Berechtigung ist für den Nutzer nicht ersichtlich", warnt Kalman Graffi, Juniorprofessor im Bereich Technik sozialer Netzwerke an der Heinrich-Heine-Universität Düsseldorf http://www.uni-duesseldorf.de Naive Nutzer könnten also in eine Urheberrechtsverletzungsfalle tappen. Technisch dagegen kann die Browser-Erweiterung den Peer-to-Peer-Experten überzeugen. "Die einfache Nutzbarkeit und der schnelle Bezug von Inhalten verspricht eine rasche Verbreitung von BitTorrent Surf", meint er.
Seinen Anfang hatte Surf als Versuch, die Nutzung von BitTorrent in Chrome zu erleichtern, eine erste Alpha-Version der Erweiterung für den Google-Browser war bereits im Januar erschienen. Zum Beta-Start gibt es jetzt auch eine Firefox-Version, um mehr User zu erreichen. Prinzipiell sind die Browser-Erweiterungen dank ihrer integrierten Suche geeignet, auch unerfahrenen Usern eher die BitTorrent-Nutzung zu ermöglichen. "Der Nutzer erspart sich das manuelle Durchschauen von Torrent-Seiten und das Verwalten der Torrent-Dateien", erklärt Graffi. Allerdings warnt er vor den rechtlichen Fallstricken, die damit allein längst nicht ausgeräumt sind.
"BitTorrent argumentiert, mit der Technologie eine Plattform zu schaffen, über die Künstler ihre Werke verbreiten können", so der Fachmann. Das sei zwar prinzipiell richtig, doch kann BitTorrent weiterhin für Piraterie missbraucht werden und es ist für Nutzer nicht ersichtlich, ob Torrents legalen ursprungs sind. "BitTorrent müsste hier nachbessern und Signale schaffen, die dem Nutzer anzeigen, ob der Anbieter nachweislich zustimmt, dass er Rechte an den verteilten Werken hat und dem Nutzer erlaubt, diese ebenfalls weiter zu verteilen", meint Graffi.
Dabei ist BitTorrent bemüht, gerade zum Beta-Start von Surf den potenziellen Nutzen des Filesharings für Künstler zu unterstreichen. Eine neue Vorschlagfunktion in der Browser-Erweiterung soll dafür sorgen, dass offiziell über BitTorrent bereitgestellte Inhalte von Partnern, wie beispielsweise das BitTorrent Bundle des Musikers Pretty Lights http://prettylightsmusic.com, mehr User erreichen und somit bekannter werden. Ziel sei es letztlich, Kreative und Fans in Sachen Content zusammenzubringen.
Solche Ansätze werden laut Graffi aber kaum reichen, BitTorrent wirklich aus der Piraterie-Ecke zu holen. "Nutzer können stets Inhalte kostenlos herunterladen, Anbieter müssen ihre Inhalte kostenlos verteilen", kritisiert er. Sinnvoller wäre es dem Experten zufolge, wenn die Möglichkeit bestünde, Inhalte für Kleinstbeiträge zu beziehen, um die Künstler direkt zu entlohnen. Derzeit könne BitTorrent höchstens dazu dienen, neue Künstler bekannt zu machen und so vielleicht Plattenverkäufe anzukurbeln. "Das schafft aber auch YouTube", meint Graffi.
Veröffentlicht am 17.04.2013 20:26:32
San Francisco/Düsseldorf - Das Unternehmen BitTorrent http://bittorrent.com hat den Beta-Start seiner Browser-Erweiterung "Surf" für Chrome und Firefox bekannt gegeben. Damit wird der Browser selbst zum Client für das bekannte Filesharing-Protokoll, inklusive umfassender Suchfunktion. Somit können User einfach ohne zusätzliche Software BitTorrent nutzen. Die Erweiterung umfasst zudem eine Vorschlagfunktion, die speziell Partner-Künstlern, die BitTorrent als legalen Vertriebskanal nutzen, zu mehr Sichtbarkeit verhelfen soll - womit Surf auch dazu beitragen soll, dass BitTorrent sein Piraterie-Image abstreifen kann.
Diesbezüglich gibt es aber noch Nachbesserungsbedarf. "Eine Unterscheidung der Quellen in legale und solche ohne Berechtigung ist für den Nutzer nicht ersichtlich", warnt Kalman Graffi, Juniorprofessor im Bereich Technik sozialer Netzwerke an der Heinrich-Heine-Universität Düsseldorf http://www.uni-duesseldorf.de Naive Nutzer könnten also in eine Urheberrechtsverletzungsfalle tappen. Technisch dagegen kann die Browser-Erweiterung den Peer-to-Peer-Experten überzeugen. "Die einfache Nutzbarkeit und der schnelle Bezug von Inhalten verspricht eine rasche Verbreitung von BitTorrent Surf", meint er.
Seinen Anfang hatte Surf als Versuch, die Nutzung von BitTorrent in Chrome zu erleichtern, eine erste Alpha-Version der Erweiterung für den Google-Browser war bereits im Januar erschienen. Zum Beta-Start gibt es jetzt auch eine Firefox-Version, um mehr User zu erreichen. Prinzipiell sind die Browser-Erweiterungen dank ihrer integrierten Suche geeignet, auch unerfahrenen Usern eher die BitTorrent-Nutzung zu ermöglichen. "Der Nutzer erspart sich das manuelle Durchschauen von Torrent-Seiten und das Verwalten der Torrent-Dateien", erklärt Graffi. Allerdings warnt er vor den rechtlichen Fallstricken, die damit allein längst nicht ausgeräumt sind.
"BitTorrent argumentiert, mit der Technologie eine Plattform zu schaffen, über die Künstler ihre Werke verbreiten können", so der Fachmann. Das sei zwar prinzipiell richtig, doch kann BitTorrent weiterhin für Piraterie missbraucht werden und es ist für Nutzer nicht ersichtlich, ob Torrents legalen ursprungs sind. "BitTorrent müsste hier nachbessern und Signale schaffen, die dem Nutzer anzeigen, ob der Anbieter nachweislich zustimmt, dass er Rechte an den verteilten Werken hat und dem Nutzer erlaubt, diese ebenfalls weiter zu verteilen", meint Graffi.
Dabei ist BitTorrent bemüht, gerade zum Beta-Start von Surf den potenziellen Nutzen des Filesharings für Künstler zu unterstreichen. Eine neue Vorschlagfunktion in der Browser-Erweiterung soll dafür sorgen, dass offiziell über BitTorrent bereitgestellte Inhalte von Partnern, wie beispielsweise das BitTorrent Bundle des Musikers Pretty Lights http://prettylightsmusic.com, mehr User erreichen und somit bekannter werden. Ziel sei es letztlich, Kreative und Fans in Sachen Content zusammenzubringen.
Solche Ansätze werden laut Graffi aber kaum reichen, BitTorrent wirklich aus der Piraterie-Ecke zu holen. "Nutzer können stets Inhalte kostenlos herunterladen, Anbieter müssen ihre Inhalte kostenlos verteilen", kritisiert er. Sinnvoller wäre es dem Experten zufolge, wenn die Möglichkeit bestünde, Inhalte für Kleinstbeiträge zu beziehen, um die Künstler direkt zu entlohnen. Derzeit könne BitTorrent höchstens dazu dienen, neue Künstler bekannt zu machen und so vielleicht Plattenverkäufe anzukurbeln. "Das schafft aber auch YouTube", meint Graffi.
System verwandelt Oberflächen in Touchscreens
Veröffentlicht am 17.04.2013 20:26:23
Tokio - Der Technologiekonzern Fujitsu hat eine futuristische Technik entwickelt, die jede beliebige Oberfläche zum Touchscreen werden lässt. Die Eingabemethode erfolgt ausschließlich über zwei herkömmliche Kameras und einen Projektor, durch welche die Berührungen der Finger erkannt werden. Diese Technologie ermöglicht die Erkennung von Touch-Gesten ohne den Einsatz teurer Sensoren sogar auf unebenen Oberflächen.
Die Hand des Benutzers wird von den Kameras gefilmt. Diese sind in der Lage, die Finger aufgrund der verschiedenen Lichtschattierungen zu unterscheiden. Darüber hinaus erlaubt es die Software sogar, Fingerbewegungen mit einer Geschwindigkeit von bis zu 300 Millimeter pro Sekunde zu verfolgen. Da weder die Kameras noch der Projektor neu entwickelt werden mussten, könnte dieses System zu einer erheblichen Kostenreduktion beitragen.
Laut Fujitsu bietet diese Innovation dem Nutzer die Möglichkeit, physische Unterlagen zu digitalisieren, zu bearbeiten und zu modifizieren. "Für dieses System benötigt man keine spezielle Hardware, da es lediglich auf einem Device - wie einer gewöhnlichen Webcam - und einem Beamer basiert", erklärt Taichi Murase, Forscher bei Fujitsus Media Service System. Im Grunde beruhe das Verfahren auf der Bildverarbeitungstechnologie.
In einer Videopräsentation demonstrieren die Forscher, wie Textausschnitte auf einer beliebigen Oberfläche - wie zum Beispiel einem Blatt Papier - vom Nutzer mit den Fingern markiert, abfotografiert und neu angeordnet werden können. Dennoch befindet dich das System zurzeit noch in einer Testphase. Den Herstellern zufolge soll es jedoch bis zur Tauglichkeit auf 3D-Gegenständen weiterentwickelt werden und bereits 2014 als kommerzielle Version auf den Markt kommen.
Veröffentlicht am 17.04.2013 20:26:23
Tokio - Der Technologiekonzern Fujitsu hat eine futuristische Technik entwickelt, die jede beliebige Oberfläche zum Touchscreen werden lässt. Die Eingabemethode erfolgt ausschließlich über zwei herkömmliche Kameras und einen Projektor, durch welche die Berührungen der Finger erkannt werden. Diese Technologie ermöglicht die Erkennung von Touch-Gesten ohne den Einsatz teurer Sensoren sogar auf unebenen Oberflächen.
Die Hand des Benutzers wird von den Kameras gefilmt. Diese sind in der Lage, die Finger aufgrund der verschiedenen Lichtschattierungen zu unterscheiden. Darüber hinaus erlaubt es die Software sogar, Fingerbewegungen mit einer Geschwindigkeit von bis zu 300 Millimeter pro Sekunde zu verfolgen. Da weder die Kameras noch der Projektor neu entwickelt werden mussten, könnte dieses System zu einer erheblichen Kostenreduktion beitragen.
Laut Fujitsu bietet diese Innovation dem Nutzer die Möglichkeit, physische Unterlagen zu digitalisieren, zu bearbeiten und zu modifizieren. "Für dieses System benötigt man keine spezielle Hardware, da es lediglich auf einem Device - wie einer gewöhnlichen Webcam - und einem Beamer basiert", erklärt Taichi Murase, Forscher bei Fujitsus Media Service System. Im Grunde beruhe das Verfahren auf der Bildverarbeitungstechnologie.
In einer Videopräsentation demonstrieren die Forscher, wie Textausschnitte auf einer beliebigen Oberfläche - wie zum Beispiel einem Blatt Papier - vom Nutzer mit den Fingern markiert, abfotografiert und neu angeordnet werden können. Dennoch befindet dich das System zurzeit noch in einer Testphase. Den Herstellern zufolge soll es jedoch bis zur Tauglichkeit auf 3D-Gegenständen weiterentwickelt werden und bereits 2014 als kommerzielle Version auf den Markt kommen.
"ReadingMate" erleichtert Lesen auf dem Laufband
Veröffentlicht am 17.04.2013 20:26:10
West Lafayette - Forscher an der Purdue University haben mit "ReadingMate" eine Lösung entwickelt, dank der Nutzer während des Trainings auf dem Laufband problemlos lesen und somit auch gleichzeitig die grauen Zellen beanspruchen können. Denn das System verschiebt Text auf einem Bildschirm so nach oben und unten, dass die laufbedingte Auf- und Abbewegung des Kopfes kompensiert wird. Dadurch scheint das Gelesene wirklich still zu stehen, sodass es auch für User lesbar wird, die sich normalerweise beim Laufen nicht auf Text konzentrieren können. Die Technologie könnte auch in Industrie und Luftfahrt Anwendung finden.
"Nicht viele Menschen können gleichzeitig laufen und lesen", so Ji Soo Yi, Wirtschaftsingenieur an der Purdue. Für die meisten ist es zu anstrengend sich darauf zu konzentrieren, dass sich der Text ständig zu bewegen scheint und die Augen darauf reagieren müssen. Zwar helfen größere Schriften auf größeren Displays, aber das ist Yi zufolge in Fitnessräumen unpraktisch. Daher hat sein Team ReadingMate entwickelt - ein System, das den Text auf einem relativ kleinen Bildschirm vor dem Laufband genau so verschiebt, dass er für den Läufer völlig unbewegt wirkt.
Dazu nutzt das System eine Spezialbrille mit Infrarot-LEDs und passende Sensoren, um das durch das Laufen bedingte Auf und Ab des Kopfes zu messen. Denn diese Kopfbewegung ist letztlich für das ständige Wackeln der Schrift verantwortlich. Das System verschiebt dann die Zeichen auf dem Display im Einklang mit, aber nicht völlig synchron zur Kopfbewegung. Denn die Augen gleichen diese teilweise aus, der Text würde für den User also erst wieder wackeln. Ein speziell Entwickelter Algorithmus berücksichtigt daher auch die Augenreaktion und bewegt die Schrift leicht asynchron zum Auf und Ab des Kopfes - so, dass sie für den Nutzer wirklich stillzustehen scheinen.
Um ReadingMate zu testen, haben die Forscher einen Test mit 15 Studenten durchgeführt. Diese wurden angehalten, in zwei Zeilen eines längeren Textes die vorkommenden Buchstaben "f" zu zählen. Testpersonen, die das neue System genutzt haben, haben dem Team zufolge eine höhere Genauigkeit erzielt als jene, die ohne das Hilfsmittel auskommen mussten. "Wir haben oft gesehen, dass Leute ohne ReadingMate aufgegeben haben, besonders bei bestimmten Schriftgrößen und geringerem Zeilenabstand", betont der projektbeteiligte Doktorand Bum chul Kwon.
Das System hat sich also im Experiment für Läufer bewährt, doch könnte der Ansatz langfristig nicht nur für lesewütige Fitness-Fans interessant sein. Die Forscher sehen Anwendungspotenzial bei Personen, die schweres Gerät bedienen, sowie Flugzeugpiloten. "Beide können heftiges Schütteln und Turbulenzen erfahren, während sie Information von einem Display ablesen", erklärt Kwon. ReadingMate wäre geeignet, auch hier das Angezeigte scheinbar stillstehen zu lassen.
Veröffentlicht am 17.04.2013 20:26:10
West Lafayette - Forscher an der Purdue University haben mit "ReadingMate" eine Lösung entwickelt, dank der Nutzer während des Trainings auf dem Laufband problemlos lesen und somit auch gleichzeitig die grauen Zellen beanspruchen können. Denn das System verschiebt Text auf einem Bildschirm so nach oben und unten, dass die laufbedingte Auf- und Abbewegung des Kopfes kompensiert wird. Dadurch scheint das Gelesene wirklich still zu stehen, sodass es auch für User lesbar wird, die sich normalerweise beim Laufen nicht auf Text konzentrieren können. Die Technologie könnte auch in Industrie und Luftfahrt Anwendung finden.
"Nicht viele Menschen können gleichzeitig laufen und lesen", so Ji Soo Yi, Wirtschaftsingenieur an der Purdue. Für die meisten ist es zu anstrengend sich darauf zu konzentrieren, dass sich der Text ständig zu bewegen scheint und die Augen darauf reagieren müssen. Zwar helfen größere Schriften auf größeren Displays, aber das ist Yi zufolge in Fitnessräumen unpraktisch. Daher hat sein Team ReadingMate entwickelt - ein System, das den Text auf einem relativ kleinen Bildschirm vor dem Laufband genau so verschiebt, dass er für den Läufer völlig unbewegt wirkt.
Dazu nutzt das System eine Spezialbrille mit Infrarot-LEDs und passende Sensoren, um das durch das Laufen bedingte Auf und Ab des Kopfes zu messen. Denn diese Kopfbewegung ist letztlich für das ständige Wackeln der Schrift verantwortlich. Das System verschiebt dann die Zeichen auf dem Display im Einklang mit, aber nicht völlig synchron zur Kopfbewegung. Denn die Augen gleichen diese teilweise aus, der Text würde für den User also erst wieder wackeln. Ein speziell Entwickelter Algorithmus berücksichtigt daher auch die Augenreaktion und bewegt die Schrift leicht asynchron zum Auf und Ab des Kopfes - so, dass sie für den Nutzer wirklich stillzustehen scheinen.
Um ReadingMate zu testen, haben die Forscher einen Test mit 15 Studenten durchgeführt. Diese wurden angehalten, in zwei Zeilen eines längeren Textes die vorkommenden Buchstaben "f" zu zählen. Testpersonen, die das neue System genutzt haben, haben dem Team zufolge eine höhere Genauigkeit erzielt als jene, die ohne das Hilfsmittel auskommen mussten. "Wir haben oft gesehen, dass Leute ohne ReadingMate aufgegeben haben, besonders bei bestimmten Schriftgrößen und geringerem Zeilenabstand", betont der projektbeteiligte Doktorand Bum chul Kwon.
Das System hat sich also im Experiment für Läufer bewährt, doch könnte der Ansatz langfristig nicht nur für lesewütige Fitness-Fans interessant sein. Die Forscher sehen Anwendungspotenzial bei Personen, die schweres Gerät bedienen, sowie Flugzeugpiloten. "Beide können heftiges Schütteln und Turbulenzen erfahren, während sie Information von einem Display ablesen", erklärt Kwon. ReadingMate wäre geeignet, auch hier das Angezeigte scheinbar stillstehen zu lassen.
Security-Alarm: Attacken via Facebook verdoppelt
Veröffentlicht am 17.04.2013 20:25:51
Mountain View - Das gegenseitige Verschicken und Teilen von Facebook-Postings wird zunehmend zu einer ernstzunehmenden Sicherheitsgefahr. Wie Norton http://de.norton.com in seinem aktuellen "Internet Security Threat Report 2013" aufzeigt, hat sich die Zahl von Betrugsversuchen und böswilligen Attacken auf der sozialen Online-Plattform im Laufe eines einzigen Jahres verdoppelt. Auch das Risiko durch mobilen Schadcode ist im selben Zeitraum drastisch angestiegen: Die Übergriffe auf Handys und Tablets sind um 58 Prozent nach oben geklettert. Bei rund 32 Prozent davon steht dabei der Diebstahl von Informationen wie E-Mail-Adressen und Telefonnummern im Vordergrund.
"Von allen Daten, die wir online hinterlassen, sind jene auf Smartphones und auf Social-Media-Communitys die interessantesten für Hacker", stellt Martin Penzes, Geschäftsführer von Safetica Österreich klar: "Wer sich hier Zugriff verschaffen kann, weiß, wann und wo sich ein User aufgehalten hat, mit wem er telefoniert hat und was in seinen E-Mails oder Notizen steht." Unter Umständen würden die Übeltäter so auch an Pincodes und Kreditkartendaten herankommen. Dass Cyber-Kriminelle ihre Machenschaften zunehmend auf diese Kanäle verlagern, sei deshalb keine große Überraschung. "Smartphone-User können sich aber mit Security-Programmen, die beispielsweise eine ferngesteuerte Löschfunktion bieten, gegen das Auslesen ihrer Daten wehren", betont Penzes.
Im Vergleich der unterschiedlichen Handy-Betriebssysteme schneidet iOS deutlich besser ab als Android. Interessanterweise stehen die von Norton registrierten Angriffe aber nicht in Zusammenhang mit Sicherheitslücken. So gab es bei Apple-Geräten zwar die meisten Schwachstellen, aber nur einen Schadcode. Android hingegen wies weniger Sicherheitslücken auf, wurde aber im Laufe des Jahres 2012 mit insgesamt 103 verschiedenen Schadcodes wesentlich häufiger attackiert. "Die Gründe für diesen rasanten Anstieg sind zum einen der hohe Marktanteil des Betriebssystems und damit die größte User-Basis", heißt es im vorgelegten Bericht.
Als aktuell gefragtesten Schadcode nennt das Sicherheitsunternehmen sogenannte "Erpressersoftware". Hierbei nutzen Angreifer manipulierte Webseiten, infizieren die Computer von Besuchern und blockieren deren Rechner unter einem Vorwand. Anschließend verlangen sie Lösegeld, um diese wieder freizuschalten. Hoch im Kurs ist auch das so genannte "Malvertisement", bei dem Kriminelle Werbeplätze auf seriösen Webseiten kaufen und ihren Schadcode in der Werbung verstecken - das bloße Betrachten reicht aus, um einen Rechner zu infizieren.
Aus deutscher Sicht besonders bedenklich ist der Umstand, dass der Norton-Bericht die Bundesrepublik im Bereich der Cyber-Gefahren auf die Spitzenplätze reiht. Als Ursprungsland für Phishing-Webseiten und bei webbasierten Angriffen belegt es demnach den ersten Platz in Europa. Im weltweiten Vergleich liegt Deutschland bei Phishing-Hosts auf dem zweiten Platz - hinter den USA. Innerhalb von Europa wird außerdem in Deutschland am zweithäufigsten Schadcode verbreitet, nur Großbritannien wird von den Experten als größere "Virenschleuder" ausgemacht.
Veröffentlicht am 17.04.2013 20:25:51
Mountain View - Das gegenseitige Verschicken und Teilen von Facebook-Postings wird zunehmend zu einer ernstzunehmenden Sicherheitsgefahr. Wie Norton http://de.norton.com in seinem aktuellen "Internet Security Threat Report 2013" aufzeigt, hat sich die Zahl von Betrugsversuchen und böswilligen Attacken auf der sozialen Online-Plattform im Laufe eines einzigen Jahres verdoppelt. Auch das Risiko durch mobilen Schadcode ist im selben Zeitraum drastisch angestiegen: Die Übergriffe auf Handys und Tablets sind um 58 Prozent nach oben geklettert. Bei rund 32 Prozent davon steht dabei der Diebstahl von Informationen wie E-Mail-Adressen und Telefonnummern im Vordergrund.
"Von allen Daten, die wir online hinterlassen, sind jene auf Smartphones und auf Social-Media-Communitys die interessantesten für Hacker", stellt Martin Penzes, Geschäftsführer von Safetica Österreich klar: "Wer sich hier Zugriff verschaffen kann, weiß, wann und wo sich ein User aufgehalten hat, mit wem er telefoniert hat und was in seinen E-Mails oder Notizen steht." Unter Umständen würden die Übeltäter so auch an Pincodes und Kreditkartendaten herankommen. Dass Cyber-Kriminelle ihre Machenschaften zunehmend auf diese Kanäle verlagern, sei deshalb keine große Überraschung. "Smartphone-User können sich aber mit Security-Programmen, die beispielsweise eine ferngesteuerte Löschfunktion bieten, gegen das Auslesen ihrer Daten wehren", betont Penzes.
Im Vergleich der unterschiedlichen Handy-Betriebssysteme schneidet iOS deutlich besser ab als Android. Interessanterweise stehen die von Norton registrierten Angriffe aber nicht in Zusammenhang mit Sicherheitslücken. So gab es bei Apple-Geräten zwar die meisten Schwachstellen, aber nur einen Schadcode. Android hingegen wies weniger Sicherheitslücken auf, wurde aber im Laufe des Jahres 2012 mit insgesamt 103 verschiedenen Schadcodes wesentlich häufiger attackiert. "Die Gründe für diesen rasanten Anstieg sind zum einen der hohe Marktanteil des Betriebssystems und damit die größte User-Basis", heißt es im vorgelegten Bericht.
Als aktuell gefragtesten Schadcode nennt das Sicherheitsunternehmen sogenannte "Erpressersoftware". Hierbei nutzen Angreifer manipulierte Webseiten, infizieren die Computer von Besuchern und blockieren deren Rechner unter einem Vorwand. Anschließend verlangen sie Lösegeld, um diese wieder freizuschalten. Hoch im Kurs ist auch das so genannte "Malvertisement", bei dem Kriminelle Werbeplätze auf seriösen Webseiten kaufen und ihren Schadcode in der Werbung verstecken - das bloße Betrachten reicht aus, um einen Rechner zu infizieren.
Aus deutscher Sicht besonders bedenklich ist der Umstand, dass der Norton-Bericht die Bundesrepublik im Bereich der Cyber-Gefahren auf die Spitzenplätze reiht. Als Ursprungsland für Phishing-Webseiten und bei webbasierten Angriffen belegt es demnach den ersten Platz in Europa. Im weltweiten Vergleich liegt Deutschland bei Phishing-Hosts auf dem zweiten Platz - hinter den USA. Innerhalb von Europa wird außerdem in Deutschland am zweithäufigsten Schadcode verbreitet, nur Großbritannien wird von den Experten als größere "Virenschleuder" ausgemacht.
Google Glass: Erste Vorserien-Geräte lieferbereit
Veröffentlicht am 16.04.2013 12:33:31
Mountain View - In der Nacht auf heute, Dienstag, hat Google jene Glass Explorer, die sich vor rund einem Jahr auf der Entwicklerkonferenz Google I/O für die Datenbrille angemeldet hatten, informiert, dass die ersten Vorserien-Modelle von Google Glass http://developers.google.com/glass lieferbereit sind. Die rund 2.000 Early Adopter werden ihre Brillen ab sofort demnach in Wellen erhalten. Zeitgerecht zum Start der ersten Geräte hat Google auch die technischen Daten von Google Glass offiziell enthüllt, zudem ist im Play Store bereits die begleitende App "MyGlass" für Android erschienen.
Google zufolge sind die ersten Exemplare der zunächst 1.500 Dollar teuren Datenbrille vom Band gelaufen. Zwar gibt es noch nicht genügend Geräte für alle Explorer, doch hat der Konzern beschlossen, mit der Auslieferung in Wellen zu beginnen. Die allerersten Auserwählten sollten ihre Hightech-Brillen also schon in Kürze bekommen, für alle anderen gibt es zunächst einmal die technischen Details. Google Glass soll dank anpassbarer Nasenstützen auf wirklich jedes Gesicht passen und bietet dem Konzern zufolge das Äquivalent eines 25-Zoll-HD-Displays, das aus knapp 2,5 Metern Entfernung gesehen wird.
Die integrierte Kamera kann den jetzt veröffentlichten Spezifikationen nach Fotos mit fünf Mexapixel Auflösung und Videos in 720p-Qualität schießen. Zum Speichern stehen auf dem integrierten Flash-Modul zwölf der insgesamt 16 Gigabyte zur freien Verfügung, zudem wird mit Googles Cloud-Angeboten synchronisiert. Eine kleine Überraschung ist, dass WLAN-Übertragungen nach dem schnellen 802.11n-Standard nicht unterstützt werden - User müssen mit 802.11b/g auskommen. Der Akku soll für einen Tag nicht genau definierter "typischer Nutzung" reichen, wobei Google explizit angibt, dass Videoaufnahmen eine zusätzliche Belastung darstellen.
Wenngleich im Februar kolportiert wurde, dass Google Glass sowohl Android als auch iOS unterstützt, ist zumindest die Begleit-App MyGlass zunächst nur für das Google-Betriebssystem ab Version 4.0.3 "Ice Cream Sandwhich" erschienen. Mit der App stehen zusätzliche Funktionen wie GPS-Positionierung und SMS-Nachrichten zur Verfügung. Alternativ zur Konfiguration und Verwaltung der Datenbrille mittels Begleit-App steht jetzt auch ein webbasierter Glass Setup Wizard zur Verfügung.
Damit die ersten Entwickler auch wirklich passende Dienste - sogenannte "Glassware" - für die Hightech-Brille auf die Beine stellen können, hat der Konzern jetzt Details und Dokumentation zur Programmierschnittstelle Mirror veröffentlicht. Die Nutzungsbestimmungen enthalten dabei zwei Klauseln, die manche Entwickler abschrecken könnten. Glassware darf demnach vorerst weder Werbung enthalten noch kostenpflichtig sein - es scheint also vorerst fraglich, wie Programmierer damit Geld machen sollen.
Veröffentlicht am 16.04.2013 12:33:31
Mountain View - In der Nacht auf heute, Dienstag, hat Google jene Glass Explorer, die sich vor rund einem Jahr auf der Entwicklerkonferenz Google I/O für die Datenbrille angemeldet hatten, informiert, dass die ersten Vorserien-Modelle von Google Glass http://developers.google.com/glass lieferbereit sind. Die rund 2.000 Early Adopter werden ihre Brillen ab sofort demnach in Wellen erhalten. Zeitgerecht zum Start der ersten Geräte hat Google auch die technischen Daten von Google Glass offiziell enthüllt, zudem ist im Play Store bereits die begleitende App "MyGlass" für Android erschienen.
Google zufolge sind die ersten Exemplare der zunächst 1.500 Dollar teuren Datenbrille vom Band gelaufen. Zwar gibt es noch nicht genügend Geräte für alle Explorer, doch hat der Konzern beschlossen, mit der Auslieferung in Wellen zu beginnen. Die allerersten Auserwählten sollten ihre Hightech-Brillen also schon in Kürze bekommen, für alle anderen gibt es zunächst einmal die technischen Details. Google Glass soll dank anpassbarer Nasenstützen auf wirklich jedes Gesicht passen und bietet dem Konzern zufolge das Äquivalent eines 25-Zoll-HD-Displays, das aus knapp 2,5 Metern Entfernung gesehen wird.
Die integrierte Kamera kann den jetzt veröffentlichten Spezifikationen nach Fotos mit fünf Mexapixel Auflösung und Videos in 720p-Qualität schießen. Zum Speichern stehen auf dem integrierten Flash-Modul zwölf der insgesamt 16 Gigabyte zur freien Verfügung, zudem wird mit Googles Cloud-Angeboten synchronisiert. Eine kleine Überraschung ist, dass WLAN-Übertragungen nach dem schnellen 802.11n-Standard nicht unterstützt werden - User müssen mit 802.11b/g auskommen. Der Akku soll für einen Tag nicht genau definierter "typischer Nutzung" reichen, wobei Google explizit angibt, dass Videoaufnahmen eine zusätzliche Belastung darstellen.
Wenngleich im Februar kolportiert wurde, dass Google Glass sowohl Android als auch iOS unterstützt, ist zumindest die Begleit-App MyGlass zunächst nur für das Google-Betriebssystem ab Version 4.0.3 "Ice Cream Sandwhich" erschienen. Mit der App stehen zusätzliche Funktionen wie GPS-Positionierung und SMS-Nachrichten zur Verfügung. Alternativ zur Konfiguration und Verwaltung der Datenbrille mittels Begleit-App steht jetzt auch ein webbasierter Glass Setup Wizard zur Verfügung.
Damit die ersten Entwickler auch wirklich passende Dienste - sogenannte "Glassware" - für die Hightech-Brille auf die Beine stellen können, hat der Konzern jetzt Details und Dokumentation zur Programmierschnittstelle Mirror veröffentlicht. Die Nutzungsbestimmungen enthalten dabei zwei Klauseln, die manche Entwickler abschrecken könnten. Glassware darf demnach vorerst weder Werbung enthalten noch kostenpflichtig sein - es scheint also vorerst fraglich, wie Programmierer damit Geld machen sollen.
Software erkennt heiße News an Wikipedia
Veröffentlicht am 16.04.2013 12:33:31
Ein internationales Forscherteam um den deutschen Google-Mitarbeiter Thomas Steiner hat eine Software entwickelt, die anhand von Wikipedia-Einträgen erkennt, was aktuell heiße Nachrichten sind. Dazu beobachtet der in einer Live-Demo vorliegende "Wikipedia Live Monitor" http://bit.ly/wikimonitor die Änderungen, die an Artikeln vorgenommen werden. Denn viele gleichzeitige Bearbeitungen in verschiedenen Sprachversionen sind ein Zeichen, dass es wirklich eine weltbewegende Neuigkeit gibt - wie ein regelrechter Bearbeitungs-Krieg nach dem Tod Michael Jacksons 2009 gezeigt hat.
Nach Angaben von Steiner gibt es verschiedene Ideen, wie die neue Software in Zukunft eingesetzt werden könnte. Die wohl offensichtlichsten sind, Daten für ein News-Ranking heranzuziehen oder die Klassifizierung von Nachrichten zu erleichtern. Aber auch andere Anwendungen wie eine "Storification" von News durch Verbindung von Social Media mit Wikipedia-Inhalten wären denkbar.
Die Idee hinter der Software ist eigentlich einfach. Gibt es eine aktuelle Nachricht, die wirklich viele Menschen bewegt, führt das im Informationszeitalter auch dazu, dass es sehr schnell zu vielen Bearbeitungen passender Wikipedia-Einträge kommt. Nach dem Jackson-Tod beispielsweise haben etliche User praktisch gleichzeitig versucht, seinen Wikipedia-Eintrag um Todeszeitpunkt, Umstände des Todes und andere Details zu ergänzen. Die Software beobachtet also die Änderungs-Aktivität bei diversen Sprachversionen der Wikipedia und identifiziert anhand von gleichzeitigen Bearbeitungen äquivalenter Artikel in diversen Sprachen mögliche Kandidaten für heiße News.
Vergangenen Freitag konnte man beobachten, wie schnell das funktioniert, denn da gab es die Auslosung für das Halbfinale der UEFA Champions League. Anhand der vielen Änderungen an Wikipedia-Artikeln zur Fußball-Eliteliga hat der Wikipedia Live Monitor binnen kürzester Zeit auf ein heißes Thema geschlossen. Freilich war hier vorab klar, dass es ein heißes Thema gibt. Interessanter dürfte die Software für unerwartete Ereignisse sein, wobei den Forschern zufolge ein zusätzliches Erfassen von Wikipedia-Klassifizierungen sinnvoll wäre. Denn wird beispielsweise jemand aus der Kategorie "lebende Personen" gestrichen, ist das ein Hinweis auf einen aktuellen Todesfall.
Das System erlaubt dem User schon jetzt, Vorgaben zu machen - beispielsweise, wie viele Bearbeitungen von äquivalenten Artikeln es geben muss und wie viele verschiedene Nutzer die Änderungen vornehmen müssen, ehe das System etwas als "Breaking News"-Kandidaten einstuft. Dabei geht es Steiner zufolge darum, dass einzelne Nutzer sinnvolle Abschätzungen bekommen, was aus ihrer Sicht wichtig genug und somit relevant ist. Gerade mit geplanten Erweiterungen würden sich noch zusätzliche Möglichkeiten eröffnen - beispielsweise, dass ein angebundenes System automatisch mit dem Liveschalten passender Storys auf einen Promi-Storyfall reagiert.
Das ist vorerst aber noch Zukunftsmusik, doch glauben die Entwickler an das Potenzial des quelloffenen Wikipedia Live Monitors, den sie Mitte Mai auf der World Wide Web Conference näher vorstellen werden. So habe die Software gegenüber dem Ansatz, aktuell wichtige Nachrichten automatisch an Postings auf sozialen Netzwerken zu erkennen, den Vorteil, dass es selten zu "False Positives" - einem Einstufen unwichtiger Nachrichten als große News - kommt. Wirklich Wichtiges werde aber ebenso gut erkannt und das letztlich mit viel weniger Rechenaufwand.
Veröffentlicht am 16.04.2013 12:33:31
Ein internationales Forscherteam um den deutschen Google-Mitarbeiter Thomas Steiner hat eine Software entwickelt, die anhand von Wikipedia-Einträgen erkennt, was aktuell heiße Nachrichten sind. Dazu beobachtet der in einer Live-Demo vorliegende "Wikipedia Live Monitor" http://bit.ly/wikimonitor die Änderungen, die an Artikeln vorgenommen werden. Denn viele gleichzeitige Bearbeitungen in verschiedenen Sprachversionen sind ein Zeichen, dass es wirklich eine weltbewegende Neuigkeit gibt - wie ein regelrechter Bearbeitungs-Krieg nach dem Tod Michael Jacksons 2009 gezeigt hat.
Nach Angaben von Steiner gibt es verschiedene Ideen, wie die neue Software in Zukunft eingesetzt werden könnte. Die wohl offensichtlichsten sind, Daten für ein News-Ranking heranzuziehen oder die Klassifizierung von Nachrichten zu erleichtern. Aber auch andere Anwendungen wie eine "Storification" von News durch Verbindung von Social Media mit Wikipedia-Inhalten wären denkbar.
Die Idee hinter der Software ist eigentlich einfach. Gibt es eine aktuelle Nachricht, die wirklich viele Menschen bewegt, führt das im Informationszeitalter auch dazu, dass es sehr schnell zu vielen Bearbeitungen passender Wikipedia-Einträge kommt. Nach dem Jackson-Tod beispielsweise haben etliche User praktisch gleichzeitig versucht, seinen Wikipedia-Eintrag um Todeszeitpunkt, Umstände des Todes und andere Details zu ergänzen. Die Software beobachtet also die Änderungs-Aktivität bei diversen Sprachversionen der Wikipedia und identifiziert anhand von gleichzeitigen Bearbeitungen äquivalenter Artikel in diversen Sprachen mögliche Kandidaten für heiße News.
Vergangenen Freitag konnte man beobachten, wie schnell das funktioniert, denn da gab es die Auslosung für das Halbfinale der UEFA Champions League. Anhand der vielen Änderungen an Wikipedia-Artikeln zur Fußball-Eliteliga hat der Wikipedia Live Monitor binnen kürzester Zeit auf ein heißes Thema geschlossen. Freilich war hier vorab klar, dass es ein heißes Thema gibt. Interessanter dürfte die Software für unerwartete Ereignisse sein, wobei den Forschern zufolge ein zusätzliches Erfassen von Wikipedia-Klassifizierungen sinnvoll wäre. Denn wird beispielsweise jemand aus der Kategorie "lebende Personen" gestrichen, ist das ein Hinweis auf einen aktuellen Todesfall.
Das System erlaubt dem User schon jetzt, Vorgaben zu machen - beispielsweise, wie viele Bearbeitungen von äquivalenten Artikeln es geben muss und wie viele verschiedene Nutzer die Änderungen vornehmen müssen, ehe das System etwas als "Breaking News"-Kandidaten einstuft. Dabei geht es Steiner zufolge darum, dass einzelne Nutzer sinnvolle Abschätzungen bekommen, was aus ihrer Sicht wichtig genug und somit relevant ist. Gerade mit geplanten Erweiterungen würden sich noch zusätzliche Möglichkeiten eröffnen - beispielsweise, dass ein angebundenes System automatisch mit dem Liveschalten passender Storys auf einen Promi-Storyfall reagiert.
Das ist vorerst aber noch Zukunftsmusik, doch glauben die Entwickler an das Potenzial des quelloffenen Wikipedia Live Monitors, den sie Mitte Mai auf der World Wide Web Conference näher vorstellen werden. So habe die Software gegenüber dem Ansatz, aktuell wichtige Nachrichten automatisch an Postings auf sozialen Netzwerken zu erkennen, den Vorteil, dass es selten zu "False Positives" - einem Einstufen unwichtiger Nachrichten als große News - kommt. Wirklich Wichtiges werde aber ebenso gut erkannt und das letztlich mit viel weniger Rechenaufwand.
Malware: 2012 fast 33 Mio. Android-Geräte befallen
Veröffentlicht am 16.04.2013 12:33:17
2012 haben sich 32,8 Mio. Android-Geräte eine Malware-Infektion eingehandelt, schätzt NQ Mobile in seinem 2012 Security Report - eine Steigerung um mehr als 200 Prozent gegenüber dem Vorjahr. Diese Zahl dürfte 2013 nochmals getoppt werden, denn schon allein im ersten Quartal wurden dem Mobile-Security-Spezialisten zufolge über zehn Mio. Smartphones und Tablets befallen. Die globale Malware-Hochburg mit 25,5 Prozent der infizierten Geräte ist demnach China.
Gut ein Viertel der 2012 entdeckten mobilen Schadsoftware zielt darauf ab, persönliche Daten des Nutzers auszuspionieren und daraus Profit zu schlagen. Doch nicht alle Malware passt zum Bild der modernen, gewinnorientierten Cybercrime-Szene. Etwa jeder 14. Schädling dient nur dem "Bricking" - dem Unbrauchbarmachen des befallenen Geräts. Insgesamt wird mobile Malware laut NQ Mobile aber immer intelligenter und geht dabei auch neue Wege, inklusive der Querinfektion von klassischen Computern.
Mit insgesamt über 65.000 Schädlingen ist die Zahl der mobilen Bedrohungen laut NQ Mobile 2012 gegenüber dem Vorjahr um 163 Prozent gestiegen. Diese Flut hat allein unter Android, auf das fast 95 Prozent der Malware entfallen, knapp 33 Mio. Opfer gefordert. Beinahe zwei Drittel der Infektionen entfielen dabei auf sogenannte "potenziell unerwünschte Programme" wie beispielsweise Spyware oder Adware, die sich häufig als legitime Apps tarnen.
Die meisten befallenen Geräte gibt es in China, gefolgt von Indien und Russland (19,4 bzw. 17,9 Prozent). Die USA rangieren mit knapp einen Zehntel der Infektionen auf Rang vier und nicht weit vor Saudi-Arabien. Mit sieben Prozent ist der Anteil der mobilen Malware, der Geräte einfach nur unbrauchbar macht, zwar recht beachtlich. Die meisten Schädlinge können aber mehr und ihren Machern beispielsweise durch Spionage Profit verschaffen.
Zudem ist im Februar erstmals ein Android-Schädling aufgetaucht, der über eine USB-Verbindung auch PCs infizieren kann. Zwar habe sich dieser nicht weit ausgebreitet, doch ist er ein Paradebeispiel dafür, dass Angriffe in der vernetzten Welt immer ausgeklügelter werden. NQ-Mobile-CEO Omar Khan betont daher, dass intelligentere Systeme nötig werden, die User schon vor der Infektion schützen. Zudem sei es nötig, Konsumenten besser zu informieren, damit sie Betrügereien erkennen und vermeiden können.
Veröffentlicht am 16.04.2013 12:33:17
2012 haben sich 32,8 Mio. Android-Geräte eine Malware-Infektion eingehandelt, schätzt NQ Mobile in seinem 2012 Security Report - eine Steigerung um mehr als 200 Prozent gegenüber dem Vorjahr. Diese Zahl dürfte 2013 nochmals getoppt werden, denn schon allein im ersten Quartal wurden dem Mobile-Security-Spezialisten zufolge über zehn Mio. Smartphones und Tablets befallen. Die globale Malware-Hochburg mit 25,5 Prozent der infizierten Geräte ist demnach China.
Gut ein Viertel der 2012 entdeckten mobilen Schadsoftware zielt darauf ab, persönliche Daten des Nutzers auszuspionieren und daraus Profit zu schlagen. Doch nicht alle Malware passt zum Bild der modernen, gewinnorientierten Cybercrime-Szene. Etwa jeder 14. Schädling dient nur dem "Bricking" - dem Unbrauchbarmachen des befallenen Geräts. Insgesamt wird mobile Malware laut NQ Mobile aber immer intelligenter und geht dabei auch neue Wege, inklusive der Querinfektion von klassischen Computern.
Mit insgesamt über 65.000 Schädlingen ist die Zahl der mobilen Bedrohungen laut NQ Mobile 2012 gegenüber dem Vorjahr um 163 Prozent gestiegen. Diese Flut hat allein unter Android, auf das fast 95 Prozent der Malware entfallen, knapp 33 Mio. Opfer gefordert. Beinahe zwei Drittel der Infektionen entfielen dabei auf sogenannte "potenziell unerwünschte Programme" wie beispielsweise Spyware oder Adware, die sich häufig als legitime Apps tarnen.
Die meisten befallenen Geräte gibt es in China, gefolgt von Indien und Russland (19,4 bzw. 17,9 Prozent). Die USA rangieren mit knapp einen Zehntel der Infektionen auf Rang vier und nicht weit vor Saudi-Arabien. Mit sieben Prozent ist der Anteil der mobilen Malware, der Geräte einfach nur unbrauchbar macht, zwar recht beachtlich. Die meisten Schädlinge können aber mehr und ihren Machern beispielsweise durch Spionage Profit verschaffen.
Zudem ist im Februar erstmals ein Android-Schädling aufgetaucht, der über eine USB-Verbindung auch PCs infizieren kann. Zwar habe sich dieser nicht weit ausgebreitet, doch ist er ein Paradebeispiel dafür, dass Angriffe in der vernetzten Welt immer ausgeklügelter werden. NQ-Mobile-CEO Omar Khan betont daher, dass intelligentere Systeme nötig werden, die User schon vor der Infektion schützen. Zudem sei es nötig, Konsumenten besser zu informieren, damit sie Betrügereien erkennen und vermeiden können.
WLAN-Interferenz: "GapSense" verspricht Abhilfe
Veröffentlicht am 16.04.2013 12:33:03
Forscher an der University of Michigan (U-M) haben mit "GapSense" eine Software entwickelt, die dem zunehmenden drahtlosen Kommunikations-Chaos Herr werden soll. Denn WLAN-Netze stören sich gegenseitig ebenso wie Übertragungen mit Protokollen wie Bluetooth oder ZigBee, wenn sie unkontrolliert um Bandbreite bei vielgenutzen Frequenzen ringen. GapSense ist als eine Art Drahtlos-Verkehrskontrolle gedacht, die Kollisionen vermeidet und somit effizientere Übertragungen erlaubt.
Dabei setzt die Software auf eine gemeinsame Sprache aus kurzen Signalen und Lücken, mit denen Geräte praktisch darauf aufmerksam machen können, dass sie gleich eine Datenübertragung durchführen. Tests zufolge, die das Team kommende Woche im Rahmen der IEE Infocom näher präsentiert, kann GapSense Interferenzen so in machen heterogenen Umgebungen um über 88 Prozent reduzieren. Zugleich soll die Software WLAN-Übertragungen energieeffizienter machen.
Das Grundproblem ist Kang Shan, Informatikprofessor an der U-M, zufolge, dass diverse Geräte zwar um Übertragungskapazitäten bei den gleichen Frequenzen buhlen, aber nicht sinnvoll miteinander kommunizieren können. Das führt oft dazu, dass stärkere WLAN-Signale Bluetooth- oder ZigBee-Übertragungen einfach überfahren und somit zunichte machen, es kommt aber auch zu Interferenzen zwischen WLAN-Netzen. Das soll GapSense verhindern, indem einzelne Geräte andere sinnvoll vorwarnen können, wenn sie eine Übertragung durchführen - sodass beispielsweise ein WLAN-Router warten kann, bis ein ZigBee-Sensor seine Daten übertragen hat.
Im Fall einer Umgebung, wo sich nur ZigBee und WLAN stören, konnte GapSense die Kollisionsrate bei Tests von 45 auf acht Prozent drücken. Wenn breit- und schmalbandigere WLAN-Geräte miteinander kollidieren, kann GapSense die Interferenzen laut U-M sogar praktisch auf Null reduzieren. Gerade bei WLAN ergibt sich außerdem ein Energiesparpotenzial. Der Ansatz ist hier, Receiver herunterzutakten und erst durch GapSense-Vorwarnung auf den aktiven Empfang vorzubereiten. Den Forschern zufolge könnte so der Stromverbrauch um 44 Prozent gesenkt werden.
Veröffentlicht am 16.04.2013 12:33:03
Forscher an der University of Michigan (U-M) haben mit "GapSense" eine Software entwickelt, die dem zunehmenden drahtlosen Kommunikations-Chaos Herr werden soll. Denn WLAN-Netze stören sich gegenseitig ebenso wie Übertragungen mit Protokollen wie Bluetooth oder ZigBee, wenn sie unkontrolliert um Bandbreite bei vielgenutzen Frequenzen ringen. GapSense ist als eine Art Drahtlos-Verkehrskontrolle gedacht, die Kollisionen vermeidet und somit effizientere Übertragungen erlaubt.
Dabei setzt die Software auf eine gemeinsame Sprache aus kurzen Signalen und Lücken, mit denen Geräte praktisch darauf aufmerksam machen können, dass sie gleich eine Datenübertragung durchführen. Tests zufolge, die das Team kommende Woche im Rahmen der IEE Infocom näher präsentiert, kann GapSense Interferenzen so in machen heterogenen Umgebungen um über 88 Prozent reduzieren. Zugleich soll die Software WLAN-Übertragungen energieeffizienter machen.
Das Grundproblem ist Kang Shan, Informatikprofessor an der U-M, zufolge, dass diverse Geräte zwar um Übertragungskapazitäten bei den gleichen Frequenzen buhlen, aber nicht sinnvoll miteinander kommunizieren können. Das führt oft dazu, dass stärkere WLAN-Signale Bluetooth- oder ZigBee-Übertragungen einfach überfahren und somit zunichte machen, es kommt aber auch zu Interferenzen zwischen WLAN-Netzen. Das soll GapSense verhindern, indem einzelne Geräte andere sinnvoll vorwarnen können, wenn sie eine Übertragung durchführen - sodass beispielsweise ein WLAN-Router warten kann, bis ein ZigBee-Sensor seine Daten übertragen hat.
Im Fall einer Umgebung, wo sich nur ZigBee und WLAN stören, konnte GapSense die Kollisionsrate bei Tests von 45 auf acht Prozent drücken. Wenn breit- und schmalbandigere WLAN-Geräte miteinander kollidieren, kann GapSense die Interferenzen laut U-M sogar praktisch auf Null reduzieren. Gerade bei WLAN ergibt sich außerdem ein Energiesparpotenzial. Der Ansatz ist hier, Receiver herunterzutakten und erst durch GapSense-Vorwarnung auf den aktiven Empfang vorzubereiten. Den Forschern zufolge könnte so der Stromverbrauch um 44 Prozent gesenkt werden.
Google plant .search als "Dotless Domain"
Veröffentlicht am 16.04.2013 12:33:03
Mountain View - Google plant, die neue Domain-Endung .search als "Dotless Domain" zu führen, die keinen Punkt bei der Adresseingabe erfordert. Das geht aus einem aktuellen Schreiben an die Domainverwaltung ICANN hervor, demzufolge die neue Top-Level-Domain (TLD) offenbar praktisch als Kürzel nicht nur für die Google-Suche, sondern den bevorzugten Suchanbieter des Users stehen soll. Gegen den Google-Plan spricht freilich, dass derartige punktlose Domains bei der ICANN eher skeptisch gesehen werden.
Gleichzeitig mit den .search-Plänen hat Googles Domain-Tochter Charleston Road Registry auch noch Details zu drei anderen für den Konzern beantragten neuen TLDs verraten. Die Endungen .blog und .cloud sollen demnach wirklich Bloggern respektive Cloud-Diensten vorbehalten bleiben. Den Antrag auf .app indes hat Google nun so abgeändert, dass nicht mehr die direkte Verbindung von Google und seinen Betriebssystemen mit dem Begriff App im Zentrum steht. Vielmehr soll die TLD für App-Entwickler allgemein gedacht sein, unabhängig davon, welche Plattform sie bedienen.
Der aktuellen Aktualisierung zum TLD-Antrag zufolge soll .search "Internet-Usern einen einzigartigen und einfachen Mechanismus zum Zugriff auf die Suchfunktion ihrer Wahl" bieten. Zwar gibt es noch keine genauen technischen Details, wie das Konzept umgesetzt werden soll. Im Prinzip ist aber angedacht, dass "http://search/" als Dotless Domain, bei der keine Eingabe einer Domain unterhalb der Endung und somit auch kein Punkt nötig ist, fungiert und als Umleitung zum bevorzugten Suchanbieter dient.
Das Problem an dieser Idee ist, dass Google hier eine Funktionalität bieten will, die so nicht wirklich vorgesehen ist. Zwar hat die ICANN im Zuge der Einführung neuer Domain-Endungen auch die Diskussion um die Möglichkeit von Dotless Domains angeregt, doch ist deren Einführung längst keine beschlossene Sache. Das Security and Stability Advisory Committee der ICANN hat sich 2012 gegen die Idee ausgesprochen und dabei klar gemacht, dass die ICANN deren Nutzung bei neuen Endungen vertraglich untersagen könnte.
Ursprünglich hatte Google beim Antrag auf .search davon gesprochen, dass die TLD Informationen durch eine vereinfachte Bereitstellung von Google-Suchdiensten zugänglicher machen will. Mit der aktuellen Änderung geht der Konzern offenbar davon ab, die Domain-Endung nur für die eigene Nutzung zu reservieren. Es steht zu vermuten, dass der Konzern damit Gegner den Wind aus den Segeln nehmen will - immerhin wäre ein Aufschrei ähnlich wie gegen Amazons .book-Pläne durchaus vorstellbar.
Noch deutlicher wird das im Fall von .app. Hier hat Google jetzt den Satz "die vorgeschlagene TLD wird Google eine direkte Verbindung zum Begriff 'App' bieten", aus dem Antrag gestrichen. Auch Passagen, die ein Naheverhältnis zu den Google-Betriebssystemen Android und Chrome andeuten, fallen weg. Google betont nun, dass die Domain zwar App-Entwickler-Communitys vorbehalten bleiben, aber hier die gesamte Palette an möglichen Plattformen abgedeckt werden soll. Zwar vermeidet der Konzern, beispielsweise iOS konkret zu nennen - wer eine zu Google-zentrische .app-TLD ablehnen könnte, ist aber klar.
Veröffentlicht am 16.04.2013 12:33:03
Mountain View - Google plant, die neue Domain-Endung .search als "Dotless Domain" zu führen, die keinen Punkt bei der Adresseingabe erfordert. Das geht aus einem aktuellen Schreiben an die Domainverwaltung ICANN hervor, demzufolge die neue Top-Level-Domain (TLD) offenbar praktisch als Kürzel nicht nur für die Google-Suche, sondern den bevorzugten Suchanbieter des Users stehen soll. Gegen den Google-Plan spricht freilich, dass derartige punktlose Domains bei der ICANN eher skeptisch gesehen werden.
Gleichzeitig mit den .search-Plänen hat Googles Domain-Tochter Charleston Road Registry auch noch Details zu drei anderen für den Konzern beantragten neuen TLDs verraten. Die Endungen .blog und .cloud sollen demnach wirklich Bloggern respektive Cloud-Diensten vorbehalten bleiben. Den Antrag auf .app indes hat Google nun so abgeändert, dass nicht mehr die direkte Verbindung von Google und seinen Betriebssystemen mit dem Begriff App im Zentrum steht. Vielmehr soll die TLD für App-Entwickler allgemein gedacht sein, unabhängig davon, welche Plattform sie bedienen.
Der aktuellen Aktualisierung zum TLD-Antrag zufolge soll .search "Internet-Usern einen einzigartigen und einfachen Mechanismus zum Zugriff auf die Suchfunktion ihrer Wahl" bieten. Zwar gibt es noch keine genauen technischen Details, wie das Konzept umgesetzt werden soll. Im Prinzip ist aber angedacht, dass "http://search/" als Dotless Domain, bei der keine Eingabe einer Domain unterhalb der Endung und somit auch kein Punkt nötig ist, fungiert und als Umleitung zum bevorzugten Suchanbieter dient.
Das Problem an dieser Idee ist, dass Google hier eine Funktionalität bieten will, die so nicht wirklich vorgesehen ist. Zwar hat die ICANN im Zuge der Einführung neuer Domain-Endungen auch die Diskussion um die Möglichkeit von Dotless Domains angeregt, doch ist deren Einführung längst keine beschlossene Sache. Das Security and Stability Advisory Committee der ICANN hat sich 2012 gegen die Idee ausgesprochen und dabei klar gemacht, dass die ICANN deren Nutzung bei neuen Endungen vertraglich untersagen könnte.
Ursprünglich hatte Google beim Antrag auf .search davon gesprochen, dass die TLD Informationen durch eine vereinfachte Bereitstellung von Google-Suchdiensten zugänglicher machen will. Mit der aktuellen Änderung geht der Konzern offenbar davon ab, die Domain-Endung nur für die eigene Nutzung zu reservieren. Es steht zu vermuten, dass der Konzern damit Gegner den Wind aus den Segeln nehmen will - immerhin wäre ein Aufschrei ähnlich wie gegen Amazons .book-Pläne durchaus vorstellbar.
Noch deutlicher wird das im Fall von .app. Hier hat Google jetzt den Satz "die vorgeschlagene TLD wird Google eine direkte Verbindung zum Begriff 'App' bieten", aus dem Antrag gestrichen. Auch Passagen, die ein Naheverhältnis zu den Google-Betriebssystemen Android und Chrome andeuten, fallen weg. Google betont nun, dass die Domain zwar App-Entwickler-Communitys vorbehalten bleiben, aber hier die gesamte Palette an möglichen Plattformen abgedeckt werden soll. Zwar vermeidet der Konzern, beispielsweise iOS konkret zu nennen - wer eine zu Google-zentrische .app-TLD ablehnen könnte, ist aber klar.
7-Zoll-Surface angeblich noch dieses Jahr
Veröffentlicht am 11.04.2013 12:40:24
Microsoft arbeitet einem Bericht des Wall Street Journal (WSJ) zufolge an einer Sieben-Zoll-Version seines Tablets Surface, die noch dieses Jahr in Massenproduktion gehen soll - als Antwort auf einen Boom bei Kompakt-Geräten. "Auf dem Tablet-Markt ist die Sieben-Zoll-Displaygröße sehr beliebt geworden. Auf dem westeuropäischen Markt war sie im vierten Quartal 2012 mit 42 Prozent der ausgelieferten Geräte die meistverkaufte", bestätigt Chrystelle Labesque, IDC Research Manager EMEA Personal Computing.
Ein neues Tablet-Erfolgsmodell könnte Microsoft gut gebrauchen, um der Windows-8-Familie dringend nötigen Auftrieb zu geben. Denn im klassischen PC-Segment konnte das neue Betriebssystem aktuellen Daten nach nicht für frischen Wind sorgen. Im Gegenteil, die Verkaufszahlen sind IDC zufolge im ersten Quartal 2013 eingebrochen wie nie zuvor - wofür die Marktforscher Windows 8 mitverantwortlich machen.
Der PC-Markt ist laut IDC im ersten Quartal 2013 gegenüber dem Vorjahr um 13,9 Prozent geschrumpft - der größte Einbruch, seit das Unternehmen 1994 erstmals Quartalszahlen veröffentlicht hat. "Inzwischen scheint es leider klar, dass Windows 8 dem PC-Markt nicht nur keinen positiven Impuls geben konnte, sondern die Marktentwicklung anscheinend gebremst hat", meint Bob O'Donnell, IDC Program Vice President, Clients and Displays. Dem Analystenhaus zufolge war ein Schrumpfen des PC-Markts zwar zu erwarten, das Ausmaß sei aber ebenso überraschend wie besorgniserregend.
Prinzipiell hängt der Rückgang bei den PC-Verkäufen freilich stark mit dem Trend hin zu Tablets und Smartphones zusammen. Denn Kunden greifen immer mehr zu diesen Geräten, was speziell günstige PCs unter Druck setzt - Mini-Notebooks sind eine aussterbende Gattung. Im Tablet-Segment wiederum geht der Trend verstärkt zu kompakten Geräten mit Bildschirmdiagonalen von acht Zoll und weniger wie Apples iPad Mini oder Googles Nexus 7.
Dem WSJ zufolge reagiert Microsoft mit dem geplanten Sieben-Zoll-Modell seines Surface-Tablets auf diesen Trend - und das ungewöhnlich schnell für die Verhältnisse des Software-Riesen, dessen Surface RT anfangs nur in wenigen großen europäischen Ländern verfügbar war. "Dennoch war Microsoft im vierten Quartal 2012 unter den Top-10-Tablet-Anbietern für Westeuropa", betont Labesque. Wie erfolgreich das Gerät globaler gesehen ist, ist also noch schwer zu sagen - in kleineren Ländern wie Österreich und der Schweiz ist es erst vor rund zwei Monaten angekommen.
Ob ein kompaktes Tablet, wo User für das neue Nutzer-Interface der Windows-8-Familie eher offen sind als auf dem klassischen Desktop, dem Betriebssystem wirklich neuen Schwung geben kann, bleibt aber abzuwarten. Generell habe die Vielfalt der Formfaktoren und Geräte bei Windows 8 eher für Verwirrung und eine abwartende Haltung gesorgt, so Labesque. "Der Schlüssel zum Revitalisieren von Windows wäre Training und Kommunikation zum Nutzer-Erlebnis", ist die Analystin überzeugt.
Veröffentlicht am 11.04.2013 12:40:24
Microsoft arbeitet einem Bericht des Wall Street Journal (WSJ) zufolge an einer Sieben-Zoll-Version seines Tablets Surface, die noch dieses Jahr in Massenproduktion gehen soll - als Antwort auf einen Boom bei Kompakt-Geräten. "Auf dem Tablet-Markt ist die Sieben-Zoll-Displaygröße sehr beliebt geworden. Auf dem westeuropäischen Markt war sie im vierten Quartal 2012 mit 42 Prozent der ausgelieferten Geräte die meistverkaufte", bestätigt Chrystelle Labesque, IDC Research Manager EMEA Personal Computing.
Ein neues Tablet-Erfolgsmodell könnte Microsoft gut gebrauchen, um der Windows-8-Familie dringend nötigen Auftrieb zu geben. Denn im klassischen PC-Segment konnte das neue Betriebssystem aktuellen Daten nach nicht für frischen Wind sorgen. Im Gegenteil, die Verkaufszahlen sind IDC zufolge im ersten Quartal 2013 eingebrochen wie nie zuvor - wofür die Marktforscher Windows 8 mitverantwortlich machen.
Der PC-Markt ist laut IDC im ersten Quartal 2013 gegenüber dem Vorjahr um 13,9 Prozent geschrumpft - der größte Einbruch, seit das Unternehmen 1994 erstmals Quartalszahlen veröffentlicht hat. "Inzwischen scheint es leider klar, dass Windows 8 dem PC-Markt nicht nur keinen positiven Impuls geben konnte, sondern die Marktentwicklung anscheinend gebremst hat", meint Bob O'Donnell, IDC Program Vice President, Clients and Displays. Dem Analystenhaus zufolge war ein Schrumpfen des PC-Markts zwar zu erwarten, das Ausmaß sei aber ebenso überraschend wie besorgniserregend.
Prinzipiell hängt der Rückgang bei den PC-Verkäufen freilich stark mit dem Trend hin zu Tablets und Smartphones zusammen. Denn Kunden greifen immer mehr zu diesen Geräten, was speziell günstige PCs unter Druck setzt - Mini-Notebooks sind eine aussterbende Gattung. Im Tablet-Segment wiederum geht der Trend verstärkt zu kompakten Geräten mit Bildschirmdiagonalen von acht Zoll und weniger wie Apples iPad Mini oder Googles Nexus 7.
Dem WSJ zufolge reagiert Microsoft mit dem geplanten Sieben-Zoll-Modell seines Surface-Tablets auf diesen Trend - und das ungewöhnlich schnell für die Verhältnisse des Software-Riesen, dessen Surface RT anfangs nur in wenigen großen europäischen Ländern verfügbar war. "Dennoch war Microsoft im vierten Quartal 2012 unter den Top-10-Tablet-Anbietern für Westeuropa", betont Labesque. Wie erfolgreich das Gerät globaler gesehen ist, ist also noch schwer zu sagen - in kleineren Ländern wie Österreich und der Schweiz ist es erst vor rund zwei Monaten angekommen.
Ob ein kompaktes Tablet, wo User für das neue Nutzer-Interface der Windows-8-Familie eher offen sind als auf dem klassischen Desktop, dem Betriebssystem wirklich neuen Schwung geben kann, bleibt aber abzuwarten. Generell habe die Vielfalt der Formfaktoren und Geräte bei Windows 8 eher für Verwirrung und eine abwartende Haltung gesorgt, so Labesque. "Der Schlüssel zum Revitalisieren von Windows wäre Training und Kommunikation zum Nutzer-Erlebnis", ist die Analystin überzeugt.
Zeitgewinn dank elektronischem Fahrtenbuch
Veröffentlicht am 11.04.2013 12:40:24
Wien - Was bei einem einzelnen Firmenauto schon mühsame Kleinarbeit ist, artet bei einem Fuhrpark in eine wahre Datenflut aus. Von Hand geführte Fahrtenbücher sind meist unvollständig oder falsch und ein unangenehmes Thema bei der Finanzamtsprüfung. Außerdem sind sie ein nicht zu unterschätzender Zeitaufwand. Abhilfe schafft hier das Infostars Fahrtenbuch, das sich fast von selbst schreibt. Alle, die schon umgerüstet haben sparen bares Geld und profitieren von einer praktikablen Lösung für Ihren Fuhrpark.
Infostars GF MMag. Robert Tarbuk zeigt das enorme Einsparungspotenzial auf und rechnet vor: "Wenn ein Mitarbeiter zehn Minuten pro Tag händisch Fahrtenbuch schreibt, fünf Tage die Woche und 45 Wochen im Jahr arbeitet, dann verbringt er 37,5 Stunden damit, das Fahrtenbuch zu schreiben. Das ist fast eine ganze Arbeitswoche! Bei einem Stundensatz (inklusive Lohnnebenkosten) von 28 Euro entstehen also für das Führen eines händischen Fahrtenbuchs Kosten von 1.050 Euro im Jahr. Und das pro Mitarbeiter."
Die Lösung ist ein automatisches Fahrtenbuch. "Unser Produkt ist für alle geeignet, die Fahrtenbücher schreiben müssen und rentiert sich bereits ab einem PKW", fasst GF MMag. Robert Tarbuk, der vor fünf Jahren mit Infostars seine eigene GPS-Lösung am Markt etabliert hat, zusammen. Für einen größeren Fuhrpark, der auch noch von vielen verschiedenen Mitarbeitern bewegt wird, ist das elektronische Fahrtenbuch eine extreme Erleichterung und spart Zeit, Geld und Nerven.
Ein GPS-Gerät im Fahrzeug generiert alle notwendigen Daten und speist diese automatisch in die Software ein. Nur einzelne Daten müssen fallweise ergänzt werden. Die Software bereitet die Daten finanzamttauglich auf.
Die erfassten Daten umfassen
* Datum und Uhrzeit: automatisch aus dem GPS-Gerät
* Ausgangs- und Zielpunkt (Adresse): automatisch aus dem GPS-Gerät
* gefahrene Kilometer, Kilometerstand Start/Ziel: automatisch laut GPS oder Kilometerzähler im Fahrzeug
* privat oder dienstlich: wird vom Fahrer mit nur einem Klick in der Software oder mit einem Schalter im Fahrzeug eingestellt. Bei privaten Fahrten werden nur die Kilometerstände verzeichnet
* Zweck der Fahrt (für Dienstfahrten): teilautomatisiert, das heißt bekannte Standorte werden erkannt und zB. automatisch dem Kundennamen zugeordnet.
* Fahrer: wird automatisch erkannt und zugeordnet
Beim Einsatz von GPS-Geräten schwingt immer das Thema Datenschutz mit. Bei Infostars sind Mitarbeiter und Unternehmer auf der sicheren Seite, denn Datenschutz und der Schutz der Privatsphäre sind fester Bestandteil der Unternehmensphilosophie. "Es gibt dazu noch keine eindeutige Rechtsprechung", weiß der gelernte Jurist GF MMag. Robert Tarbuk. "Wir bringen mit unseren Systemen Licht in diese Grauzone, denn Infostars hat den Datenschutz in das schlüssige System integriert. Es läuft alles korrekt ab, die Daten werden nur für Geschäftszwecke gesammelt und es werden nur Daten der Arbeitszeit ausgewertet."
Das finanzamttaugliche Fahrtenbuch kostet EUR 9,90 pro Monat inkl. SIM-Karte und Softwarezugang (ohne Hardware und Einbau). Mitarbeiter sparen damit Zeit und können effizienter arbeiten, kein lästiges Ausfüllen von händischen Fahrtenbüchern oder umständliches Nachtragen am Computer. Unternehmer sparen Geld und Nerven.
Veröffentlicht am 11.04.2013 12:40:24
Wien - Was bei einem einzelnen Firmenauto schon mühsame Kleinarbeit ist, artet bei einem Fuhrpark in eine wahre Datenflut aus. Von Hand geführte Fahrtenbücher sind meist unvollständig oder falsch und ein unangenehmes Thema bei der Finanzamtsprüfung. Außerdem sind sie ein nicht zu unterschätzender Zeitaufwand. Abhilfe schafft hier das Infostars Fahrtenbuch, das sich fast von selbst schreibt. Alle, die schon umgerüstet haben sparen bares Geld und profitieren von einer praktikablen Lösung für Ihren Fuhrpark.
Infostars GF MMag. Robert Tarbuk zeigt das enorme Einsparungspotenzial auf und rechnet vor: "Wenn ein Mitarbeiter zehn Minuten pro Tag händisch Fahrtenbuch schreibt, fünf Tage die Woche und 45 Wochen im Jahr arbeitet, dann verbringt er 37,5 Stunden damit, das Fahrtenbuch zu schreiben. Das ist fast eine ganze Arbeitswoche! Bei einem Stundensatz (inklusive Lohnnebenkosten) von 28 Euro entstehen also für das Führen eines händischen Fahrtenbuchs Kosten von 1.050 Euro im Jahr. Und das pro Mitarbeiter."
Die Lösung ist ein automatisches Fahrtenbuch. "Unser Produkt ist für alle geeignet, die Fahrtenbücher schreiben müssen und rentiert sich bereits ab einem PKW", fasst GF MMag. Robert Tarbuk, der vor fünf Jahren mit Infostars seine eigene GPS-Lösung am Markt etabliert hat, zusammen. Für einen größeren Fuhrpark, der auch noch von vielen verschiedenen Mitarbeitern bewegt wird, ist das elektronische Fahrtenbuch eine extreme Erleichterung und spart Zeit, Geld und Nerven.
Ein GPS-Gerät im Fahrzeug generiert alle notwendigen Daten und speist diese automatisch in die Software ein. Nur einzelne Daten müssen fallweise ergänzt werden. Die Software bereitet die Daten finanzamttauglich auf.
Die erfassten Daten umfassen
* Datum und Uhrzeit: automatisch aus dem GPS-Gerät
* Ausgangs- und Zielpunkt (Adresse): automatisch aus dem GPS-Gerät
* gefahrene Kilometer, Kilometerstand Start/Ziel: automatisch laut GPS oder Kilometerzähler im Fahrzeug
* privat oder dienstlich: wird vom Fahrer mit nur einem Klick in der Software oder mit einem Schalter im Fahrzeug eingestellt. Bei privaten Fahrten werden nur die Kilometerstände verzeichnet
* Zweck der Fahrt (für Dienstfahrten): teilautomatisiert, das heißt bekannte Standorte werden erkannt und zB. automatisch dem Kundennamen zugeordnet.
* Fahrer: wird automatisch erkannt und zugeordnet
Beim Einsatz von GPS-Geräten schwingt immer das Thema Datenschutz mit. Bei Infostars sind Mitarbeiter und Unternehmer auf der sicheren Seite, denn Datenschutz und der Schutz der Privatsphäre sind fester Bestandteil der Unternehmensphilosophie. "Es gibt dazu noch keine eindeutige Rechtsprechung", weiß der gelernte Jurist GF MMag. Robert Tarbuk. "Wir bringen mit unseren Systemen Licht in diese Grauzone, denn Infostars hat den Datenschutz in das schlüssige System integriert. Es läuft alles korrekt ab, die Daten werden nur für Geschäftszwecke gesammelt und es werden nur Daten der Arbeitszeit ausgewertet."
Das finanzamttaugliche Fahrtenbuch kostet EUR 9,90 pro Monat inkl. SIM-Karte und Softwarezugang (ohne Hardware und Einbau). Mitarbeiter sparen damit Zeit und können effizienter arbeiten, kein lästiges Ausfüllen von händischen Fahrtenbüchern oder umständliches Nachtragen am Computer. Unternehmer sparen Geld und Nerven.
Computerspiel steuert echte Mikroorganismen
Veröffentlicht am 11.04.2013 12:40:24
Stanford/San Francisco - Die Entwicklung von Computer- und Videospielen schreitet rasant voran. Während sich die Branchenfirmen zumeist vor allem um eine möglichst realitätsnahe grafische Darstellung der Spielumgebung oder um innovative alternative Steuerungskonzepte bemühen, haben einige Forscher auch abseits breitgetretener Pfade interessante Ansätze zu bieten. Bestes Beispiel hierfür ist ein aktuelles Projekt an der Stanford University, das sich eine völlig neuartige Vermischung von virtueller und natürlicher Welt zum Ziel gesetzt hat. Herausgekommen ist ein "Pac-Man"-artiges Arcade-Game, bei dem der User mithilfe eines schwachen elektrischen Feldes echte Mikroorganismen steuern kann.
"In der Biologie gibt es eigentlich nichts Spielerisches", zitiert das US-Portal LiveScience Ingmar Riedel-Kruse, Bioingenieur an der Stanford University, anlässlich einer ersten Präsentation seines "Biotic Arcade Games" vor Forschungskollegen am swissnex Research Center http://swissnexsanfrancisco.org in San Francisco. Die Vermischung von virtuellem Spiel und natürlichen Spielfiguren sei aber nicht nur aus wissenschaftlicher Sicht spannend, sondern auch aus pädagogischer. "Biotische Computerspiele können wissenschaftliche Probleme lösen. Hier wird die natürliche Neigung der Gamer ausgenutzt, Spiele zu hacken, um ihre Regeln herauszufinden. Außerdem können Schülern dadurch biologische Prinzipien besser vermittelt werden", so Riedel-Kruse.
Um das Potenzial der Verbindung von Natur und digitaler Welt zu veranschaulichen, hat der Stanford-Forscher gemeinsam mit seinem Team ein bislang vollkommen neuartiges Spielkonzept entworfen, das mit echten natürlichen Mikroorganismen funktioniert. Als Vorbild diente der beliebte Games-Klassiker "Pac-Man" aus dem Jahr 1980. Auch beim Biotic Arcade Game muss die Spielfigur gekonnt über den Bildschirm gesteuert werden, um verteilte "Coins" einzusammeln und Punkte anzuhäufen. Im Unterschied zur herkömmlichen Variante nutzen Spieler im aktuellen Fall allerdings ein schwaches elektronisches Feld, um mikroskopisch kleine einzellige Pantoffeltierchen zu kontrollieren.
Dass Computerspiele durchaus auch einen echten wissenschaftlichen Nutzen haben können, haben bereits mehrere interessante Forschungsprojekte der vergangenen Jahre bewiesen. Eines der bekanntesten Beispiele für diese Art von "Serious Games" ist das Online-Game "Foldit", mit dem es der US-Biochemiker David Baker der University of Washington sogar bis in die renommierte Zeitschrift "Science" geschafft hat. Hierbei falten Menschen um die Wette Proteine. Indem sie deren optimale dreidimensionale Form suchen, leisten sie gleichzeitig der Wissenschaft einen Vorwärtsschub.
Im Gegensatz zu Foldit, das tatsächlich bereits erste nachweisliche Erfolge für die medizinische Forschung eingebracht hat, befinden sich die biotischen Spiele noch in einem frühen Experimentierstadium. "Das jetzige System erfordert noch viel Arbeit im Labor", merkt Stanford-Forscher Riedel-Kruse an. So sei es etwa noch recht aufwendig, die eingesetzten Einzeller während des Spielverlaufs am Leben zu halten. "Wir hoffen aber, auch eine Stand-alone-Version des Spiels entwickeln zu können, in der sich echte lebende Kreaturen bewegen."
Veröffentlicht am 11.04.2013 12:40:24
Stanford/San Francisco - Die Entwicklung von Computer- und Videospielen schreitet rasant voran. Während sich die Branchenfirmen zumeist vor allem um eine möglichst realitätsnahe grafische Darstellung der Spielumgebung oder um innovative alternative Steuerungskonzepte bemühen, haben einige Forscher auch abseits breitgetretener Pfade interessante Ansätze zu bieten. Bestes Beispiel hierfür ist ein aktuelles Projekt an der Stanford University, das sich eine völlig neuartige Vermischung von virtueller und natürlicher Welt zum Ziel gesetzt hat. Herausgekommen ist ein "Pac-Man"-artiges Arcade-Game, bei dem der User mithilfe eines schwachen elektrischen Feldes echte Mikroorganismen steuern kann.
"In der Biologie gibt es eigentlich nichts Spielerisches", zitiert das US-Portal LiveScience Ingmar Riedel-Kruse, Bioingenieur an der Stanford University, anlässlich einer ersten Präsentation seines "Biotic Arcade Games" vor Forschungskollegen am swissnex Research Center http://swissnexsanfrancisco.org in San Francisco. Die Vermischung von virtuellem Spiel und natürlichen Spielfiguren sei aber nicht nur aus wissenschaftlicher Sicht spannend, sondern auch aus pädagogischer. "Biotische Computerspiele können wissenschaftliche Probleme lösen. Hier wird die natürliche Neigung der Gamer ausgenutzt, Spiele zu hacken, um ihre Regeln herauszufinden. Außerdem können Schülern dadurch biologische Prinzipien besser vermittelt werden", so Riedel-Kruse.
Um das Potenzial der Verbindung von Natur und digitaler Welt zu veranschaulichen, hat der Stanford-Forscher gemeinsam mit seinem Team ein bislang vollkommen neuartiges Spielkonzept entworfen, das mit echten natürlichen Mikroorganismen funktioniert. Als Vorbild diente der beliebte Games-Klassiker "Pac-Man" aus dem Jahr 1980. Auch beim Biotic Arcade Game muss die Spielfigur gekonnt über den Bildschirm gesteuert werden, um verteilte "Coins" einzusammeln und Punkte anzuhäufen. Im Unterschied zur herkömmlichen Variante nutzen Spieler im aktuellen Fall allerdings ein schwaches elektronisches Feld, um mikroskopisch kleine einzellige Pantoffeltierchen zu kontrollieren.
Dass Computerspiele durchaus auch einen echten wissenschaftlichen Nutzen haben können, haben bereits mehrere interessante Forschungsprojekte der vergangenen Jahre bewiesen. Eines der bekanntesten Beispiele für diese Art von "Serious Games" ist das Online-Game "Foldit", mit dem es der US-Biochemiker David Baker der University of Washington sogar bis in die renommierte Zeitschrift "Science" geschafft hat. Hierbei falten Menschen um die Wette Proteine. Indem sie deren optimale dreidimensionale Form suchen, leisten sie gleichzeitig der Wissenschaft einen Vorwärtsschub.
Im Gegensatz zu Foldit, das tatsächlich bereits erste nachweisliche Erfolge für die medizinische Forschung eingebracht hat, befinden sich die biotischen Spiele noch in einem frühen Experimentierstadium. "Das jetzige System erfordert noch viel Arbeit im Labor", merkt Stanford-Forscher Riedel-Kruse an. So sei es etwa noch recht aufwendig, die eingesetzten Einzeller während des Spielverlaufs am Leben zu halten. "Wir hoffen aber, auch eine Stand-alone-Version des Spiels entwickeln zu können, in der sich echte lebende Kreaturen bewegen."
iPhone-User im Schnitt 76 Mal pro Tag ausgespäht
Veröffentlicht am 10.04.2013 13:40:15
Paris - Mobile Handy-Applikationen stellen aus datenschutzrechtlicher Perspektive ein ernstes Problem dar. Wie aus einem aktuellen Bericht der nationalen Datenschutzbehörde French National Commission on Computing and Liberty (CNIL) http://www.cnil.fr hervorgeht, greifen viele der kleinen Programme ungefragt auf sensible persönliche Daten zu, um diese an weit entfernte Server weiterzuleiten. Ein Praxistest mit sechs Freiwilligen, die ihr iPhone drei Monate lang mit einer speziellen SIM-Karte bestücken ließen, um den jeweiligen individuellen Daten-Traffic genau kontrollieren zu können, ergab, dass die Apps weit mehr Daten abfragen als nötig. Die User haben zudem kaum eine Möglichkeit, um derartige Übertragungen überwachen bzw. einschränken zu können.
"Was die Datenschutzproblematik von Smartphones angeht, fehlt es den Usern noch an dem nötigen Gefahrenbewusstsein", stellt Georg Markus Kainz, Präsident des Vereins quintessenz http://quintessenz.at klar. Dass moderne, internetfähige Handys hier eine besonders große Gefahr darstellen, liege darin begründet, dass sie die technischen Funktionen von Mobiltelefonen und Computern vereinen. "Wie schon vor einiger Zeit beim PC, müssen die Nutzer nun auch im Umgang mit ihren Smartphones lernen, dass es nicht ratsam ist, sensible Daten dort abzulegen, wo sie ungeschützt sind", betont der Experte, der aber auch die Sicherheitseinstellungen so mancher App bemängelt: "Die User werden vielfach geradezu genötigt, ihre Daten preiszugeben."
Die Auswertung des mitprotokollierten Datenverkehrs der sechs iPhone-User durch die CNIL ist zwar eigenen Angaben zufolge gerade erst gestartet. Die insgesamt neun Gigabyte an gesammelten Daten liefern aber schon jetzt ein klares Bild der Verhältnisse. Demnach griff im Schnitt eine von drei verwendeten Apps auf die GPS-Standortinformationen des jeweiligen Handys zu. Während eines durchschnittlichen Tages wurde der einzelne Smartphone-Besitzer sage und schreibe ganze 76 Mal "getracked". Spitzenreiter in dieser Kategorie waren "Foursquare" und "Apple Maps", die am öftesten Ortungsdaten abfragten, gefolgt von "Around Me" und der vorinstallierten Apple-Kamera-App.
"Smartphones sind aus datenschutzrechtlicher Sicht auch deshalb so gefährlich, weil sie weit mehr über einen User preisgeben als ein normaler Standrechner", kommentiert Kainz das Analyseresultat. Die GPS-Ortung sei hier natürlich besonders problematisch. "Das Handy ist heute ein mobiler Alltagsgegenstand, der überall hin mitgenommen wird. Auf diese Weise lassen sich die Wege der User sehr gut nachvollziehen", erläutert der quintessenz-Chef. Aber auch die integrierten Kameras und Mikrofone seien ein "potenzielles Sicherheitsrisiko".
"Unser Ziel war es nicht, mit dem Finger auf einen bestimmten Hersteller zu zeigen, sondern generell das Verständnis zu verbessern, wie Apps mit privaten Daten umgehen", zitiert das US-Portal Macworld CNIL-Präsidentin Isabelle Falque-Pierrotin. Am Beispiel von Apples iPhone habe man ganz gut aufzeigen können, dass die Käufer solcher Geräte zumeist nur wenig bis gar keine Ahnung davon haben, auf welche Informationen oder Funktionen die von ihnen erworbenen Handy-Programme zugreifen. "Apple hat in puncto Datensicherheit schon etwas nachgebessert. Insgesamt gesehen betrifft diese Problematik aber auch genauso jeden anderen Smartphone-User", so Kainz abschließend.
Veröffentlicht am 10.04.2013 13:40:15
Paris - Mobile Handy-Applikationen stellen aus datenschutzrechtlicher Perspektive ein ernstes Problem dar. Wie aus einem aktuellen Bericht der nationalen Datenschutzbehörde French National Commission on Computing and Liberty (CNIL) http://www.cnil.fr hervorgeht, greifen viele der kleinen Programme ungefragt auf sensible persönliche Daten zu, um diese an weit entfernte Server weiterzuleiten. Ein Praxistest mit sechs Freiwilligen, die ihr iPhone drei Monate lang mit einer speziellen SIM-Karte bestücken ließen, um den jeweiligen individuellen Daten-Traffic genau kontrollieren zu können, ergab, dass die Apps weit mehr Daten abfragen als nötig. Die User haben zudem kaum eine Möglichkeit, um derartige Übertragungen überwachen bzw. einschränken zu können.
"Was die Datenschutzproblematik von Smartphones angeht, fehlt es den Usern noch an dem nötigen Gefahrenbewusstsein", stellt Georg Markus Kainz, Präsident des Vereins quintessenz http://quintessenz.at klar. Dass moderne, internetfähige Handys hier eine besonders große Gefahr darstellen, liege darin begründet, dass sie die technischen Funktionen von Mobiltelefonen und Computern vereinen. "Wie schon vor einiger Zeit beim PC, müssen die Nutzer nun auch im Umgang mit ihren Smartphones lernen, dass es nicht ratsam ist, sensible Daten dort abzulegen, wo sie ungeschützt sind", betont der Experte, der aber auch die Sicherheitseinstellungen so mancher App bemängelt: "Die User werden vielfach geradezu genötigt, ihre Daten preiszugeben."
Die Auswertung des mitprotokollierten Datenverkehrs der sechs iPhone-User durch die CNIL ist zwar eigenen Angaben zufolge gerade erst gestartet. Die insgesamt neun Gigabyte an gesammelten Daten liefern aber schon jetzt ein klares Bild der Verhältnisse. Demnach griff im Schnitt eine von drei verwendeten Apps auf die GPS-Standortinformationen des jeweiligen Handys zu. Während eines durchschnittlichen Tages wurde der einzelne Smartphone-Besitzer sage und schreibe ganze 76 Mal "getracked". Spitzenreiter in dieser Kategorie waren "Foursquare" und "Apple Maps", die am öftesten Ortungsdaten abfragten, gefolgt von "Around Me" und der vorinstallierten Apple-Kamera-App.
"Smartphones sind aus datenschutzrechtlicher Sicht auch deshalb so gefährlich, weil sie weit mehr über einen User preisgeben als ein normaler Standrechner", kommentiert Kainz das Analyseresultat. Die GPS-Ortung sei hier natürlich besonders problematisch. "Das Handy ist heute ein mobiler Alltagsgegenstand, der überall hin mitgenommen wird. Auf diese Weise lassen sich die Wege der User sehr gut nachvollziehen", erläutert der quintessenz-Chef. Aber auch die integrierten Kameras und Mikrofone seien ein "potenzielles Sicherheitsrisiko".
"Unser Ziel war es nicht, mit dem Finger auf einen bestimmten Hersteller zu zeigen, sondern generell das Verständnis zu verbessern, wie Apps mit privaten Daten umgehen", zitiert das US-Portal Macworld CNIL-Präsidentin Isabelle Falque-Pierrotin. Am Beispiel von Apples iPhone habe man ganz gut aufzeigen können, dass die Käufer solcher Geräte zumeist nur wenig bis gar keine Ahnung davon haben, auf welche Informationen oder Funktionen die von ihnen erworbenen Handy-Programme zugreifen. "Apple hat in puncto Datensicherheit schon etwas nachgebessert. Insgesamt gesehen betrifft diese Problematik aber auch genauso jeden anderen Smartphone-User", so Kainz abschließend.