Willkommen bei WCM
Um alle Funktionen dieser Website nutzen zu können müssen Sie sich Einloggen oder Registrieren. Die Registrierung ist unverbindlich und dauert nur einen Moment.
540 Seiten « < 9 10 11 12 > »
Europäische Firmen verkennen die Gefahr durch DDoS-Angriffe
Veröffentlicht am 27.09.2013 00:18:51
In mehr als 300 europäischen Unternehmen wurden die IT-Entscheider befragt, wie sie es mit DDoS-Attacken halten. Die Antworten waren höchst widersprüchlich: Zwar räumten 70 Prozent der Befragten ein, in Branchen aktiv zu sein, die durch Cyber-Kriminelle und insbesondere Denial-of-Service-Angriffe besonders gefährdet sind - wie im Bereich Finance, Einzelhandel, Dienstleistung oder Online-Gaming. 88 Prozent verfügen über bekannte Marken, 84 Prozent bestätigten, dass das Internet für ihr Unternehmen wichtig oder sehr wichtig sei. Gleichzeitig aber schätzt das Gros der befragten Organisationen die Wahrscheinlichkeit als niedrig oder moderat ein, Opfer einer DDoS-Attacke zu werden.
Ähnliche Ungereimtheiten ergaben sich auch bei anderen Fragestellungen: So mutmaßen 84 Prozent der IT-Führungskräfte, eine erfolgreiche DDoS-Attacke habe ernste oder sogar sehr ernste Folgen für ihr Unternehmen. Andererseits wissen 70 Prozent der Befragten nicht einmal, wer ihre "Nachbarn" in gemeinsam genutzten Shared-Hosting- oder Cloud-Computing-Umgebungen sind. Auch sehen sich die IT-Fachleute nicht in der Lage einzuschätzen, welche Kollateralschäden durch Angriffe bei ihnen entstehen können.
Trotzdem sie die Gefahrenlage als ernst einschätzen, setzt die Mehrzahl der Unternehmen (85 Prozent) nach wie vor auf eigene Firewalls und Intrusion-Protection-Systeme (IPS) sowie die hauseigenen IT-Sicherheitsfachleute, um "Brute-Force"-Angriffe abzuwehren. Diese Vorgehensweise ist jedoch riskant, weil interne Sicherheitssysteme häufig selbst zum Ziel von Low-Level-Attacken werden und die IT-Security-Lösungen damit ihre Wirkungskraft einbüßen können.
"Es besteht ein erheblicher Gegensatz zwischen der Furcht vor den Auswirkungen von DDoS-Angriffen und der - oft unzureichenden - strategischen Verteidigungsposition gegen solche Attacken. Reseller sind in einer geradezu idealen Position, um diese Fehleinschätzung von Kunden zu korrigieren und ihnen integrierte Lösungen für die Abwehr von DDoS-Angriffen und Advanced Persistent Threats nahezubringen", erkennt Barrie Desmond, Director of Marketing & Global Accounts bei der Exclusive Networks Group. "Viele Entscheider in Unternehmen haben offensichtlich völlig überholte Vorstellungen von DDoS. Sie nehmen etwa an, dass nur große Unternehmen Ziel solcher Angriffe sind. Darin spiegelt sich ein grundlegend falsches Verständnis der Gefahr wider, die moderne DDoS-Angriffe darstellen."
Drei Viertel der Befragten sind der Auffassung, bei DDoS-Attacken handle es sich um reine Brute-Force-Angriffe. "Die meisten IT-Verantwortlichen haben keine Vorstellung davon, wie häufig solche DDoS-Attacken stattfinden und wie ausgefeilt und breitgefächert sie mittlerweile sind", ergänzt Desmond. "Zwei Drittel der Befragten wussten nicht, dass es einen Cyber-Kriminellen nur noch ganze 30 Euro kostet, um einen DDoS-Angriff zu lancieren."
Laut dem aktuellen "Worldwide Infastructure Security Report" von Arbor Networks stieg die Anzahl der DDoS-Angriffe 2012 um 20 Prozent. Zudem übersteigt die Netzwerkbandbreite, die bei solchen Attacken eingesetzt wird, im Durchschnitt mittlerweile ein Gigabit pro Sekunde. Dieser Wert wurde bislang jedoch nur bei groß angelegten Angriffen erreicht. Arbor Networks verzeichnet weiter eine steigende Zahl von zielgerichteten Angriffen auf sogenannte Stateful-IT-Sicherheitssysteme wie Firewalls und Intrusion-Protection-Systeme (IPS). Auch applikationsbasierte Attacken nehmen zu, indem sie ihren wahren Zweck tarnen, nämlich Daten zu stehlen und auf IT-Systemen Schadsoftware aufzuspielen oder andere Advanced Persistent Threats (APTs) zu implementieren.
"Unternehmen müssen sich dieser Tatsache stellen: Es nimmt sowohl die Zahl als auch der Umfang der Angriffe zu", konstatiert Jeremy Nicholls, Channel Director EMEA von Arbor Networks. "Im laufenden Jahr haben wir bereits Attacken mit bis zu 300 Gigabit pro Sekunde registriert. Für die meisten Unternehmen hätte ein solcher Angriff verheerende Folgen wie finanzielle Verlusten und Image-Schäden." Laut Nicholls sind alle Unternehmen durch solche Angriffe verwundbar. Das ist auf viele Faktoren zurückführen, etwa die Unternehmenskultur, mit wem Firmen Partnerschaften eingehen und wo sie Daten bearbeiten und speichern. Ein Rat von Nicholls: "Ein Unternehmen kann einen Großteil der DDoS-Angriffe abwehren, wenn es im Firmennetz Schutzsysteme installiert und gleichzeitig auf eine Cloud-basierte Sicherheitslösung eines Service-Providers zurückgreift."
Die Tage, in denen DDoS-Angriffe ein Problem darstellten, das vorzugsweise andere Unternehmen betraf, sind Desmond zufolge vorbei. Heute müssten sich alle Unternehmen und Organisationen darüber im Klaren sein, dass auch sie solchen Bedrohungen ausgesetzt seien: "Distributed-Denial-of-Service-Attacken erleben derzeit eine Renaissance und wir sehen uns mit einer neuen Generation solcher Angriffe konfrontiert. Um ihnen nachhaltig begegnen zu können, sind zwei Dinge erforderlich: eine neue Sichtweise und der Einsatz von integrierten Anti-DDoS- und ATP-Technologien."
Veröffentlicht am 27.09.2013 00:18:51
In mehr als 300 europäischen Unternehmen wurden die IT-Entscheider befragt, wie sie es mit DDoS-Attacken halten. Die Antworten waren höchst widersprüchlich: Zwar räumten 70 Prozent der Befragten ein, in Branchen aktiv zu sein, die durch Cyber-Kriminelle und insbesondere Denial-of-Service-Angriffe besonders gefährdet sind - wie im Bereich Finance, Einzelhandel, Dienstleistung oder Online-Gaming. 88 Prozent verfügen über bekannte Marken, 84 Prozent bestätigten, dass das Internet für ihr Unternehmen wichtig oder sehr wichtig sei. Gleichzeitig aber schätzt das Gros der befragten Organisationen die Wahrscheinlichkeit als niedrig oder moderat ein, Opfer einer DDoS-Attacke zu werden.
Ähnliche Ungereimtheiten ergaben sich auch bei anderen Fragestellungen: So mutmaßen 84 Prozent der IT-Führungskräfte, eine erfolgreiche DDoS-Attacke habe ernste oder sogar sehr ernste Folgen für ihr Unternehmen. Andererseits wissen 70 Prozent der Befragten nicht einmal, wer ihre "Nachbarn" in gemeinsam genutzten Shared-Hosting- oder Cloud-Computing-Umgebungen sind. Auch sehen sich die IT-Fachleute nicht in der Lage einzuschätzen, welche Kollateralschäden durch Angriffe bei ihnen entstehen können.
Trotzdem sie die Gefahrenlage als ernst einschätzen, setzt die Mehrzahl der Unternehmen (85 Prozent) nach wie vor auf eigene Firewalls und Intrusion-Protection-Systeme (IPS) sowie die hauseigenen IT-Sicherheitsfachleute, um "Brute-Force"-Angriffe abzuwehren. Diese Vorgehensweise ist jedoch riskant, weil interne Sicherheitssysteme häufig selbst zum Ziel von Low-Level-Attacken werden und die IT-Security-Lösungen damit ihre Wirkungskraft einbüßen können.
"Es besteht ein erheblicher Gegensatz zwischen der Furcht vor den Auswirkungen von DDoS-Angriffen und der - oft unzureichenden - strategischen Verteidigungsposition gegen solche Attacken. Reseller sind in einer geradezu idealen Position, um diese Fehleinschätzung von Kunden zu korrigieren und ihnen integrierte Lösungen für die Abwehr von DDoS-Angriffen und Advanced Persistent Threats nahezubringen", erkennt Barrie Desmond, Director of Marketing & Global Accounts bei der Exclusive Networks Group. "Viele Entscheider in Unternehmen haben offensichtlich völlig überholte Vorstellungen von DDoS. Sie nehmen etwa an, dass nur große Unternehmen Ziel solcher Angriffe sind. Darin spiegelt sich ein grundlegend falsches Verständnis der Gefahr wider, die moderne DDoS-Angriffe darstellen."
Drei Viertel der Befragten sind der Auffassung, bei DDoS-Attacken handle es sich um reine Brute-Force-Angriffe. "Die meisten IT-Verantwortlichen haben keine Vorstellung davon, wie häufig solche DDoS-Attacken stattfinden und wie ausgefeilt und breitgefächert sie mittlerweile sind", ergänzt Desmond. "Zwei Drittel der Befragten wussten nicht, dass es einen Cyber-Kriminellen nur noch ganze 30 Euro kostet, um einen DDoS-Angriff zu lancieren."
Laut dem aktuellen "Worldwide Infastructure Security Report" von Arbor Networks stieg die Anzahl der DDoS-Angriffe 2012 um 20 Prozent. Zudem übersteigt die Netzwerkbandbreite, die bei solchen Attacken eingesetzt wird, im Durchschnitt mittlerweile ein Gigabit pro Sekunde. Dieser Wert wurde bislang jedoch nur bei groß angelegten Angriffen erreicht. Arbor Networks verzeichnet weiter eine steigende Zahl von zielgerichteten Angriffen auf sogenannte Stateful-IT-Sicherheitssysteme wie Firewalls und Intrusion-Protection-Systeme (IPS). Auch applikationsbasierte Attacken nehmen zu, indem sie ihren wahren Zweck tarnen, nämlich Daten zu stehlen und auf IT-Systemen Schadsoftware aufzuspielen oder andere Advanced Persistent Threats (APTs) zu implementieren.
"Unternehmen müssen sich dieser Tatsache stellen: Es nimmt sowohl die Zahl als auch der Umfang der Angriffe zu", konstatiert Jeremy Nicholls, Channel Director EMEA von Arbor Networks. "Im laufenden Jahr haben wir bereits Attacken mit bis zu 300 Gigabit pro Sekunde registriert. Für die meisten Unternehmen hätte ein solcher Angriff verheerende Folgen wie finanzielle Verlusten und Image-Schäden." Laut Nicholls sind alle Unternehmen durch solche Angriffe verwundbar. Das ist auf viele Faktoren zurückführen, etwa die Unternehmenskultur, mit wem Firmen Partnerschaften eingehen und wo sie Daten bearbeiten und speichern. Ein Rat von Nicholls: "Ein Unternehmen kann einen Großteil der DDoS-Angriffe abwehren, wenn es im Firmennetz Schutzsysteme installiert und gleichzeitig auf eine Cloud-basierte Sicherheitslösung eines Service-Providers zurückgreift."
Die Tage, in denen DDoS-Angriffe ein Problem darstellten, das vorzugsweise andere Unternehmen betraf, sind Desmond zufolge vorbei. Heute müssten sich alle Unternehmen und Organisationen darüber im Klaren sein, dass auch sie solchen Bedrohungen ausgesetzt seien: "Distributed-Denial-of-Service-Attacken erleben derzeit eine Renaissance und wir sehen uns mit einer neuen Generation solcher Angriffe konfrontiert. Um ihnen nachhaltig begegnen zu können, sind zwei Dinge erforderlich: eine neue Sichtweise und der Einsatz von integrierten Anti-DDoS- und ATP-Technologien."
Mobiles Breitband: 30 Prozent Wachstum pro Jahr
Veröffentlicht am 27.09.2013 00:18:50
Die Zahl der mobilen Breitband-Abos nimmt um 30 Prozent pro Jahr zu, womit die Technologie die am schnellsten wachsende Technologie der Menschheitsgeschichte ist. Das geht aus dem am Wochenende von der Internationalen Fernmeldeunion (ITU) veröffentlichten Bericht "The State of Broadband 2013" hervor. Bis Ende dieses Jahres wird es demnach bereits dreimal so viele mobile wie Festnetz-Breitbandanschlüsse geben.
Die Vorreiter bei mobiler Breitband-Durchdringung sind asiatischen Technologienationen sowie Skandinavien, in denen es teils mehr mobile Breitband-Verträge als Einwohner gibt. Die DACH-Region kann da nicht mithalten und findet sich unter den Industrienationen eher im hinteren Feld. Dafür ist die Schweiz Weltspitze beim klassischen Festnetz-Breitband, da sie 2012 als einziges Land der Welt mehr als 40 Prozent Penetration erreicht. Entwicklungsländer bleiben in Sachen Internet-Verfügbarkeit weiter stark benachteiligt.
Laut ITU gibt es weltweit bereits 70 Länder, in denen mehr als die Hälfte der Bevölkerung das Internet nutzt, in vielen europäischen Staaten sind es vier von fünf Bürgern oder mehr - bis hin zu 96 Prozent in Island. Die Zahl der klassischen Breitband-Anschlüsse kann da nicht recht mithalten. Die Schweiz ist wie erwähnt Weltspitze und Deutschland liegt mit einer Festnetz-Durchdringung von 34 Verträgen pro 100 Einwohner auf dem starken neunten Platz unter 193 im Bericht erfassten Ländern. Doch der weltweite Durchschnitt der Festnetz-Breitband-Penetration liegt bei unter zehn Prozent.
Dagegen liegt die Durchdringung mit mobilem Breitband im globalen Schnitt bereits bei 22,1 Prozent. Spitzenreiter ist Singapur, wo im Jahr 2012 auf 100 Bewohner sogar 123,3 Verträge kamen. Auch in Japan, Finnland, Südkorea und Schweden liegt die Durchdringung bei über 100 Prozent, in den USA (Rang 9) haben fast drei von vier mobiles Breitband. Im Vergleich dazu sind schon die 55,5 Prozent Penetration in Österreich eher bescheiden und reichen nur für Platz 23. In der Schweiz und Deutschland haben nur etwas mehr als zwei von fünf Personen mobiles Breitband, womit die Länder im ITU-Ranking fast gleichauf auf den Plätzen 39 und 40 liegen - und somit knapp hinter Kasachstan.
Die Tatsache, dass selbst die Schweiz und Deutschland trotz einer für Industrienationen schwachen Verbreitung von mobilem Breitband global noch im erweiterten Vorderfeld liegen, ist freilich auch ein Zeichen dafür, dass es in Sachen Internet-Zugang immer noch ein riesiges internationales Gefälle gibt. "Wir dürfen nicht die vergessen, die zurückbleiben", mahnt ITU-Generalsekretär Hamadoun I. Touré. "Denn wenngleich mehr und mehr Leute online gehen, sind in den 49 am schwächsten entwickelten Ländern der Welt über 90 Prozent der Menschen völlig ohne Zugang."
Touré betont, dass das Internet und speziell das Breitband-Internet ein wichtiges Mittel für die soziale und ökonomische Entwicklung ist und daher auch in den ärmsten Ländern hohe Priorität haben sollte. "Technologie in Verbindung mit relevantem Content und Services kann helfen, dringliche Entwicklungslücken in Bereichen wie Gesundheit, Bildung, Umweltmanagement und Gender Empowerment zu schließen." Letzteres scheint auch im globalen Internet nötig: Laut ITU sind 200 Mio. Frauen weniger online als Männer - eine Kluft, die in drei Jahren auf 350 Mio. anwachsen könnte.
Veröffentlicht am 27.09.2013 00:18:50
Die Zahl der mobilen Breitband-Abos nimmt um 30 Prozent pro Jahr zu, womit die Technologie die am schnellsten wachsende Technologie der Menschheitsgeschichte ist. Das geht aus dem am Wochenende von der Internationalen Fernmeldeunion (ITU) veröffentlichten Bericht "The State of Broadband 2013" hervor. Bis Ende dieses Jahres wird es demnach bereits dreimal so viele mobile wie Festnetz-Breitbandanschlüsse geben.
Die Vorreiter bei mobiler Breitband-Durchdringung sind asiatischen Technologienationen sowie Skandinavien, in denen es teils mehr mobile Breitband-Verträge als Einwohner gibt. Die DACH-Region kann da nicht mithalten und findet sich unter den Industrienationen eher im hinteren Feld. Dafür ist die Schweiz Weltspitze beim klassischen Festnetz-Breitband, da sie 2012 als einziges Land der Welt mehr als 40 Prozent Penetration erreicht. Entwicklungsländer bleiben in Sachen Internet-Verfügbarkeit weiter stark benachteiligt.
Laut ITU gibt es weltweit bereits 70 Länder, in denen mehr als die Hälfte der Bevölkerung das Internet nutzt, in vielen europäischen Staaten sind es vier von fünf Bürgern oder mehr - bis hin zu 96 Prozent in Island. Die Zahl der klassischen Breitband-Anschlüsse kann da nicht recht mithalten. Die Schweiz ist wie erwähnt Weltspitze und Deutschland liegt mit einer Festnetz-Durchdringung von 34 Verträgen pro 100 Einwohner auf dem starken neunten Platz unter 193 im Bericht erfassten Ländern. Doch der weltweite Durchschnitt der Festnetz-Breitband-Penetration liegt bei unter zehn Prozent.
Dagegen liegt die Durchdringung mit mobilem Breitband im globalen Schnitt bereits bei 22,1 Prozent. Spitzenreiter ist Singapur, wo im Jahr 2012 auf 100 Bewohner sogar 123,3 Verträge kamen. Auch in Japan, Finnland, Südkorea und Schweden liegt die Durchdringung bei über 100 Prozent, in den USA (Rang 9) haben fast drei von vier mobiles Breitband. Im Vergleich dazu sind schon die 55,5 Prozent Penetration in Österreich eher bescheiden und reichen nur für Platz 23. In der Schweiz und Deutschland haben nur etwas mehr als zwei von fünf Personen mobiles Breitband, womit die Länder im ITU-Ranking fast gleichauf auf den Plätzen 39 und 40 liegen - und somit knapp hinter Kasachstan.
Die Tatsache, dass selbst die Schweiz und Deutschland trotz einer für Industrienationen schwachen Verbreitung von mobilem Breitband global noch im erweiterten Vorderfeld liegen, ist freilich auch ein Zeichen dafür, dass es in Sachen Internet-Zugang immer noch ein riesiges internationales Gefälle gibt. "Wir dürfen nicht die vergessen, die zurückbleiben", mahnt ITU-Generalsekretär Hamadoun I. Touré. "Denn wenngleich mehr und mehr Leute online gehen, sind in den 49 am schwächsten entwickelten Ländern der Welt über 90 Prozent der Menschen völlig ohne Zugang."
Touré betont, dass das Internet und speziell das Breitband-Internet ein wichtiges Mittel für die soziale und ökonomische Entwicklung ist und daher auch in den ärmsten Ländern hohe Priorität haben sollte. "Technologie in Verbindung mit relevantem Content und Services kann helfen, dringliche Entwicklungslücken in Bereichen wie Gesundheit, Bildung, Umweltmanagement und Gender Empowerment zu schließen." Letzteres scheint auch im globalen Internet nötig: Laut ITU sind 200 Mio. Frauen weniger online als Männer - eine Kluft, die in drei Jahren auf 350 Mio. anwachsen könnte.
Online-Game verwandelt Spieler in Krebsforscher
Veröffentlicht am 20.09.2013 23:56:55
Cambridge - Wenn es um die Erforschung von Krebs und entsprechender Therapieansätze geht, ist die Wissenschaft auf jede Hilfe angewiesen. Um so viele Menschen wie möglich in die Suche nach brauchbaren Behandlungsmethoden einzubinden, haben Forscher des Massachusetts Institute of Technology http://web.mit.edu ein spezielles Computerspiel namens "NanoDoc" http://nanodoc.org vorgestellt. Das Crowdsourcing-Game, das gratis im Web verfügbar ist, verwandelt Spieler kurzerhand selbst in Krebsforscher und lässt sie verschiedene Krankheitsszenarien lösen, in denen Nanopartikel strategisch zur Bekämpfung von Tumorzellen eingesetzt werden.
"NanoDoc ist ein Online-Spiel, das es Bioingenieuren und der allgemeinen Öffentlichkeit ermöglicht, neue Ansätze für die Behandlung von Krebserkrankungen zu finden", erklärt Sabine Hauert, Projektleiterin am David H. Koch Institute for Integrative Cancer Research http://ki.mit.edu des MIT, auf ihrer Webseite. Genauer betrachtet handle es sich bei dem Game um einen "Nanopartikelsimulator", in dessen Entwicklung die ganze Erfahrung von Jahren der Forschung in der Nanomedizin eingeflossen sei. "Die simulierten Strategien der Spieler sind der erste Schritt in Richtung des Entwurfs neuer Therapiemethoden", so die Wissenschaftlerin.
Wer selbst an dem ambitionierten globalen Crowdsourcing-Projekt teilnehmen möchte, muss sich zunächst auf der NanoDoc-Webseite mit seinem Facebook-, Twitter- oder Google-Account einloggen. Nach erfolgreicher Anmeldung werden die Spieler nicht gleich auf die bösartigen Tumorzellen losgelassen, sondern durchlaufen gewissermaßen einen kleinen Grundkurs in Sachen Krebsforschung. Als NanoDoc müssen sie nämlich zuerst einmal grundlegende Regeln und Prozesse verstehen und etwa die verschiedenen Arten und spezifischen Eigenschaften unterschiedlicher Nanopartikel kennen.
Haben die Hobbyforscher das nötige Wissen aufgenommen und verinnerlicht, werden sie im Spiel vor verschiedene Herausforderungen gestellt. Diese beinhalten reale Konfigurationen von Tumorzellen, zu denen die Forschung bislang noch keinen effizienten Behandlungsweg gefunden hat. "Wir wissen nicht, wie die beste Therapie für diese Probleme aussieht oder ob es überhaupt brauchbare Lösungen dafür gibt. Unsere Hoffnung ist, dass uns eure Ideen im Kampf gegen Krebs weiterhelfen können und wir dadurch die Nanomedizin besser verstehen lernen", erläutert Hauert.
Wie sinnvoll und ergiebig es sein kann, die Kraft und Kreativität der Allgemeinheit anzuzapfen, um schwierige wissenschaftliche Problemstellungen zu lösen, hat bereits das ähnlich angelegte Projekt "FoldIt" bewiesen. Auch hier werden Laien ohne jegliche medizinische oder biochemische Vorkenntnisse per Crowdsourcing eingesetzt, um hochkomplexe Problemstellungen zu lösen. Und der Erfolg gibt diesem Ansatz Recht: Schon nach nur zehn Tagen haben die insgesamt rund 60.000 Spieler die Struktur der sogenannten "Retroviralen Protease" - dem Schlüssel zur Reproduktion des HI-Virus - aufgedeckt.
Veröffentlicht am 20.09.2013 23:56:55
Cambridge - Wenn es um die Erforschung von Krebs und entsprechender Therapieansätze geht, ist die Wissenschaft auf jede Hilfe angewiesen. Um so viele Menschen wie möglich in die Suche nach brauchbaren Behandlungsmethoden einzubinden, haben Forscher des Massachusetts Institute of Technology http://web.mit.edu ein spezielles Computerspiel namens "NanoDoc" http://nanodoc.org vorgestellt. Das Crowdsourcing-Game, das gratis im Web verfügbar ist, verwandelt Spieler kurzerhand selbst in Krebsforscher und lässt sie verschiedene Krankheitsszenarien lösen, in denen Nanopartikel strategisch zur Bekämpfung von Tumorzellen eingesetzt werden.
"NanoDoc ist ein Online-Spiel, das es Bioingenieuren und der allgemeinen Öffentlichkeit ermöglicht, neue Ansätze für die Behandlung von Krebserkrankungen zu finden", erklärt Sabine Hauert, Projektleiterin am David H. Koch Institute for Integrative Cancer Research http://ki.mit.edu des MIT, auf ihrer Webseite. Genauer betrachtet handle es sich bei dem Game um einen "Nanopartikelsimulator", in dessen Entwicklung die ganze Erfahrung von Jahren der Forschung in der Nanomedizin eingeflossen sei. "Die simulierten Strategien der Spieler sind der erste Schritt in Richtung des Entwurfs neuer Therapiemethoden", so die Wissenschaftlerin.
Wer selbst an dem ambitionierten globalen Crowdsourcing-Projekt teilnehmen möchte, muss sich zunächst auf der NanoDoc-Webseite mit seinem Facebook-, Twitter- oder Google-Account einloggen. Nach erfolgreicher Anmeldung werden die Spieler nicht gleich auf die bösartigen Tumorzellen losgelassen, sondern durchlaufen gewissermaßen einen kleinen Grundkurs in Sachen Krebsforschung. Als NanoDoc müssen sie nämlich zuerst einmal grundlegende Regeln und Prozesse verstehen und etwa die verschiedenen Arten und spezifischen Eigenschaften unterschiedlicher Nanopartikel kennen.
Haben die Hobbyforscher das nötige Wissen aufgenommen und verinnerlicht, werden sie im Spiel vor verschiedene Herausforderungen gestellt. Diese beinhalten reale Konfigurationen von Tumorzellen, zu denen die Forschung bislang noch keinen effizienten Behandlungsweg gefunden hat. "Wir wissen nicht, wie die beste Therapie für diese Probleme aussieht oder ob es überhaupt brauchbare Lösungen dafür gibt. Unsere Hoffnung ist, dass uns eure Ideen im Kampf gegen Krebs weiterhelfen können und wir dadurch die Nanomedizin besser verstehen lernen", erläutert Hauert.
Wie sinnvoll und ergiebig es sein kann, die Kraft und Kreativität der Allgemeinheit anzuzapfen, um schwierige wissenschaftliche Problemstellungen zu lösen, hat bereits das ähnlich angelegte Projekt "FoldIt" bewiesen. Auch hier werden Laien ohne jegliche medizinische oder biochemische Vorkenntnisse per Crowdsourcing eingesetzt, um hochkomplexe Problemstellungen zu lösen. Und der Erfolg gibt diesem Ansatz Recht: Schon nach nur zehn Tagen haben die insgesamt rund 60.000 Spieler die Struktur der sogenannten "Retroviralen Protease" - dem Schlüssel zur Reproduktion des HI-Virus - aufgedeckt.
FMK: Roaminggebühren abschaffen, ist Bärendienst am Konsumenten
Veröffentlicht am 20.09.2013 23:56:38
Wien - Österreichs Mobilfunkbetreiber stehen dem sukzessiven Wegfall der Roaminggebühren per EU-Verordnung skeptisch gegenüber, da sich der österreichische Markt aufgrund des kundenfreundlichen Wettbewerbes zu einem der günstigsten in der EU mit sehr niedrigen Endverbraucherpreisen entwickelt hat.
Die Mobilfunkbetreiber lukrieren durch in Österreich telefonierende Touristen maßgebliche Roamingeinnahmen, die auch dazu beitragen, dass extrem günstige Privattarife angeboten werden können und gleichzeitig auch schwach besiedelte Gebiete - etwa in den alpinen Gegenden - über eine sehr gute Mobilfunkinfrastruktur verfügen. Mit dem Wegfall dieser Einnahmen kann es daher zu einer Verteuerung für österreichische Privatkunden - bei gleichzeitiger Stagnation der Qualität der Infrastruktur - kommen.
Von der Streichung der Roaminggebühren profitieren lediglich Kunden, die häufig in der EU unterwegs sind, also hauptsächlich beruflich Reisende. Der großen Mehrheit der Kunden, die etwa ihren Sommerurlaub im EU-Ausland verbringen, bieten die Betreiber schon heute günstige Roamingpakete an.
Deshalb sind die Bestrebungen der EU-Kommission sowohl aus der Sicht der Kunden als auch aus der Sicht der Mobilfunkindustrie Treiber in die falsche Richtung.
Jeder Entzug von Ertragsmöglichkeiten durch regulatorische Eingriffe hat direkte Auswirkungen auf die ohnehin angespannte Ertragslage der Mobilfunker. Darüber hinaus sind dringend nötige Investitionen und Arbeitsplätze in Österreich damit gefährdet. So bedeutet beispielsweise ein Investment von 100 Mio. Euro die Schaffung von 1.500 Arbeitsplätzen bei Mobilfunkunternehmen, ihren Zulieferern und dem Bau- und Baunebengewerbe.
Veröffentlicht am 20.09.2013 23:56:38
Wien - Österreichs Mobilfunkbetreiber stehen dem sukzessiven Wegfall der Roaminggebühren per EU-Verordnung skeptisch gegenüber, da sich der österreichische Markt aufgrund des kundenfreundlichen Wettbewerbes zu einem der günstigsten in der EU mit sehr niedrigen Endverbraucherpreisen entwickelt hat.
Die Mobilfunkbetreiber lukrieren durch in Österreich telefonierende Touristen maßgebliche Roamingeinnahmen, die auch dazu beitragen, dass extrem günstige Privattarife angeboten werden können und gleichzeitig auch schwach besiedelte Gebiete - etwa in den alpinen Gegenden - über eine sehr gute Mobilfunkinfrastruktur verfügen. Mit dem Wegfall dieser Einnahmen kann es daher zu einer Verteuerung für österreichische Privatkunden - bei gleichzeitiger Stagnation der Qualität der Infrastruktur - kommen.
Von der Streichung der Roaminggebühren profitieren lediglich Kunden, die häufig in der EU unterwegs sind, also hauptsächlich beruflich Reisende. Der großen Mehrheit der Kunden, die etwa ihren Sommerurlaub im EU-Ausland verbringen, bieten die Betreiber schon heute günstige Roamingpakete an.
Deshalb sind die Bestrebungen der EU-Kommission sowohl aus der Sicht der Kunden als auch aus der Sicht der Mobilfunkindustrie Treiber in die falsche Richtung.
Jeder Entzug von Ertragsmöglichkeiten durch regulatorische Eingriffe hat direkte Auswirkungen auf die ohnehin angespannte Ertragslage der Mobilfunker. Darüber hinaus sind dringend nötige Investitionen und Arbeitsplätze in Österreich damit gefährdet. So bedeutet beispielsweise ein Investment von 100 Mio. Euro die Schaffung von 1.500 Arbeitsplätzen bei Mobilfunkunternehmen, ihren Zulieferern und dem Bau- und Baunebengewerbe.
Hitachi Data Systems gründet gemeinsames Kompetenzzentrum mit Hitachi Ltd.
Veröffentlicht am 20.09.2013 23:56:16
Neben dem technischen Know-how setzen HDS und Hitachi dabei auf Gründermentalität und Marktkenntnisse bei den Mitarbeitern, von denen letztlich die Ingenieure beider Unternehmen profitieren. Eines der Hauptziele ist es, Lösungen für den Umgang mit den ungebremst wachsenden Datenmengen zu finden. Darüber hinaus wird die Nutzung der in den Daten enthaltenen Informationen im Mittelpunkt der Aktivitäten des Global OTP stehen.
"Die verstärkte Zusammenarbeit unserer Mitarbeiter in den Bereichen Forschung und Entwicklung ist eine einmalige Chance, Innovationen durch Informationen zu ermöglichen", sagt Horst Heftberger, General Manager Hitachi Data Systems Austria. "Innovation ist zentraler Teil unserer Unternehmenskultur. Wir haben diese Fähigkeiten bei all unseren bisher entwickelten Lösungen bewiesen. Über das Global OTP können HDS und Hitachi Ltd. noch effektiver zusammenarbeiten."
HDS arbeitet derzeit gemeinsam mit Hitachi Ltd. an Initiativen, die mehr als zehn unterschiedliche Branchen umfassen, darunter Call-Center-Operations, Distribution und Handel, Energie, Finanzen, Gesundheitswesen, öffentliche Sicherheit bzw. Security allgemein sowie Telekommunikation und Transport. Ein eigens gegründetes Branchenforum hilft zudem, den direkten Austausch zwischen Anwendern, Partnern und weiteren Beteiligten zu ermöglichen. Die Gruppe diskutiert bereits mit der Community von Hitachi Data Systems über Open Innovation, über für die Umsetzung tiefgreifender Analysen erforderliche Programmiermodelle sowie über derzeit aufkeimende IT-Trends.
HDS und Hitachi teilen zudem ihre Ressourcen im Bereich Forschung & Entwicklung für Software, Computing, Storage und Netzwerke mit anderen Industriezweigen, um neue Anwendungen im Bereich "User-to-System" und "System-to-System" zu ermöglichen. Momentan arbeiten beide Unternehmen mit der Xerox-Tochter PARC, die dem Emerging Networks Consortium (ENC) vorsteht, an Aktivitäten rund um das Internet der nächsten Generation. Als Basis dazu dient das "Content-Centric Networking" (CCN), bei dem Inhalte noch mehr Relevanz erhalten.
Die Unternehmen haben bereits über viele Jahre hinweg eng mit Hitachi Research zusammengearbeitet und sich jüngst dem Hitachi Global Center for Innovative Analytics (HGC-IA) angeschlossen: "Das HGC-IA verbindet Hitachi weltweit mit Forschern und Ingenieuren vor Ort. Gemeinsam werden so weltweit führende Leistungen aus den Bereichen Forschung, Beratung, IT und Services erbracht. Die Gruppe entwickelt unter anderem im Umfeld von End-to-End-Ansätzen für Big-Data-Szenarien. In Zusammenarbeit mit dem neuen Global OTP werden wir unser Big-Data-Kerngeschäft weiter ausbauen und um zahlreiche Lösungen ergänzen können", erklärt Umeshwar Dayal, Vice President und Senior Fellow am Big Data Laboratory von Hitachi America Ltd. R&D.
----------------------------------
Hitachi Data Systems bietet branchenweit führende Informationstechnologien, Services und Lösungen, mit denen Unternehmen die Kosten für ihre IT senken und gleichzeitig deren Agilität erhöhen können. Gemäß unserer Vision "Innovate with Information" versetzen wir Unternehmen in die Lage, ihre Informationen zu nutzen und dadurch innovationsfähig zu sein - und somit etwas in der Welt zu bewirken. Die Kunden von Hitachi Data Systems profitieren durch optimalen Return on Investment (ROI) sowie unerreichten Return on Assets (ROA) und damit von echtem Mehrwert für ihren Geschäftsbetrieb. Hitachi Data Systems ist mit seinen etwa 6.100 Mitarbeitern in über 100 Ländern der Welt aktiv. Die größten und namhaftesten Unternehmen der Welt, darunter mehr als 70 Prozent der Fortune-100-Unternehmen sowie über 80 Prozent der Fortune-Global-100-Unternehmen, vertrauen auf die Produkte, Services und Lösungen von Hitachi Data Systems.
Hitachi Ltd. (TSE: 6501) mit Hauptsitz in Tokio, Japan, ist einer der führenden globalen Elektronikkonzerne mit rund 326.000 Mitarbeitern weltweit. Das Unternehmen erwirtschaftete im Geschäftsjahr 2012 (mit Ende 31. März 2013) konsolidierte Umsätze in Höhe von 96,1 Milliarden US-Dollar. Hitachi richtet seine Aktivitäten verstärkt auf den Bereich sozialer Innovationen aus. Zu diesem Feld zählen Infrastruktursysteme, Informations- und Telekommunikationssysteme, Energie, Baumaschinen, hochfunktionale Materialien und Komponenten, Automotive-Anwendungen und andere mehr.
Veröffentlicht am 20.09.2013 23:56:16
Neben dem technischen Know-how setzen HDS und Hitachi dabei auf Gründermentalität und Marktkenntnisse bei den Mitarbeitern, von denen letztlich die Ingenieure beider Unternehmen profitieren. Eines der Hauptziele ist es, Lösungen für den Umgang mit den ungebremst wachsenden Datenmengen zu finden. Darüber hinaus wird die Nutzung der in den Daten enthaltenen Informationen im Mittelpunkt der Aktivitäten des Global OTP stehen.
"Die verstärkte Zusammenarbeit unserer Mitarbeiter in den Bereichen Forschung und Entwicklung ist eine einmalige Chance, Innovationen durch Informationen zu ermöglichen", sagt Horst Heftberger, General Manager Hitachi Data Systems Austria. "Innovation ist zentraler Teil unserer Unternehmenskultur. Wir haben diese Fähigkeiten bei all unseren bisher entwickelten Lösungen bewiesen. Über das Global OTP können HDS und Hitachi Ltd. noch effektiver zusammenarbeiten."
HDS arbeitet derzeit gemeinsam mit Hitachi Ltd. an Initiativen, die mehr als zehn unterschiedliche Branchen umfassen, darunter Call-Center-Operations, Distribution und Handel, Energie, Finanzen, Gesundheitswesen, öffentliche Sicherheit bzw. Security allgemein sowie Telekommunikation und Transport. Ein eigens gegründetes Branchenforum hilft zudem, den direkten Austausch zwischen Anwendern, Partnern und weiteren Beteiligten zu ermöglichen. Die Gruppe diskutiert bereits mit der Community von Hitachi Data Systems über Open Innovation, über für die Umsetzung tiefgreifender Analysen erforderliche Programmiermodelle sowie über derzeit aufkeimende IT-Trends.
HDS und Hitachi teilen zudem ihre Ressourcen im Bereich Forschung & Entwicklung für Software, Computing, Storage und Netzwerke mit anderen Industriezweigen, um neue Anwendungen im Bereich "User-to-System" und "System-to-System" zu ermöglichen. Momentan arbeiten beide Unternehmen mit der Xerox-Tochter PARC, die dem Emerging Networks Consortium (ENC) vorsteht, an Aktivitäten rund um das Internet der nächsten Generation. Als Basis dazu dient das "Content-Centric Networking" (CCN), bei dem Inhalte noch mehr Relevanz erhalten.
Die Unternehmen haben bereits über viele Jahre hinweg eng mit Hitachi Research zusammengearbeitet und sich jüngst dem Hitachi Global Center for Innovative Analytics (HGC-IA) angeschlossen: "Das HGC-IA verbindet Hitachi weltweit mit Forschern und Ingenieuren vor Ort. Gemeinsam werden so weltweit führende Leistungen aus den Bereichen Forschung, Beratung, IT und Services erbracht. Die Gruppe entwickelt unter anderem im Umfeld von End-to-End-Ansätzen für Big-Data-Szenarien. In Zusammenarbeit mit dem neuen Global OTP werden wir unser Big-Data-Kerngeschäft weiter ausbauen und um zahlreiche Lösungen ergänzen können", erklärt Umeshwar Dayal, Vice President und Senior Fellow am Big Data Laboratory von Hitachi America Ltd. R&D.
----------------------------------
Hitachi Data Systems bietet branchenweit führende Informationstechnologien, Services und Lösungen, mit denen Unternehmen die Kosten für ihre IT senken und gleichzeitig deren Agilität erhöhen können. Gemäß unserer Vision "Innovate with Information" versetzen wir Unternehmen in die Lage, ihre Informationen zu nutzen und dadurch innovationsfähig zu sein - und somit etwas in der Welt zu bewirken. Die Kunden von Hitachi Data Systems profitieren durch optimalen Return on Investment (ROI) sowie unerreichten Return on Assets (ROA) und damit von echtem Mehrwert für ihren Geschäftsbetrieb. Hitachi Data Systems ist mit seinen etwa 6.100 Mitarbeitern in über 100 Ländern der Welt aktiv. Die größten und namhaftesten Unternehmen der Welt, darunter mehr als 70 Prozent der Fortune-100-Unternehmen sowie über 80 Prozent der Fortune-Global-100-Unternehmen, vertrauen auf die Produkte, Services und Lösungen von Hitachi Data Systems.
Hitachi Ltd. (TSE: 6501) mit Hauptsitz in Tokio, Japan, ist einer der führenden globalen Elektronikkonzerne mit rund 326.000 Mitarbeitern weltweit. Das Unternehmen erwirtschaftete im Geschäftsjahr 2012 (mit Ende 31. März 2013) konsolidierte Umsätze in Höhe von 96,1 Milliarden US-Dollar. Hitachi richtet seine Aktivitäten verstärkt auf den Bereich sozialer Innovationen aus. Zu diesem Feld zählen Infrastruktursysteme, Informations- und Telekommunikationssysteme, Energie, Baumaschinen, hochfunktionale Materialien und Komponenten, Automotive-Anwendungen und andere mehr.
Österreichs erste Seilbahn mit WLAN am Hochkönig
Veröffentlicht am 17.09.2013 09:53:55
Mühlbach am Hochkönig - Als Vorreiter in Österreich stattet das Skigebiet Hochkönig (Mühlbach - Dienten) die Seilbahn Kings Cab mit Wireless LAN und dem Informationsservice "Mountainment®" aus. Der Wireless-Spezialist Loop21 betreut das Projekt, liefert Hard- und Software und macht das WLAN zu einer modernen Infoplattform für Gäste.
"Die Hochkönig Bergbahnen sind ständig bestrebt, für unsere Gäste ein einzigartiges und zusätzliches Angebot zum Skifahren und Snowboarden zu finden", erklärt Ing. Michael Emberger, Geschäftsführer der Bergbahnen Hochkönig. "Wir freuen uns sehr, unseren Gästen als erstes österreichisches Seilbahnunternehmen in Ski amadé dieses einmalige Produkt zur Verfügung zu stellen. Mit Loop21 haben wir einen Partner gefunden, mit dem wir dieses innovative Projekt, nämlich die Mischung aus WIFI und Informationsquelle, verwirklichen können."
Das drahtlose Netz erstreckt sich auf die komplette 8er-Kabinenbahn mit über 2 Kilometer Gesamtlänge. Unterbrechungsfrei erhalten die Skigäste eine moderne WLAN-Infoplattform, "Mountainment®" genannt. Das sind lokale Infos über Wetter, Pistenplan, direkte Links zum App-Download sowie Zugriff auf Facebook und Internet. Der schnelle, unkomplizierte Zugriff auf die Inhalte, welche der Gast unterwegs braucht und sucht, steigert den Komfort und die Zufriedenheit.
Veröffentlicht am 17.09.2013 09:53:55
Mühlbach am Hochkönig - Als Vorreiter in Österreich stattet das Skigebiet Hochkönig (Mühlbach - Dienten) die Seilbahn Kings Cab mit Wireless LAN und dem Informationsservice "Mountainment®" aus. Der Wireless-Spezialist Loop21 betreut das Projekt, liefert Hard- und Software und macht das WLAN zu einer modernen Infoplattform für Gäste.
"Die Hochkönig Bergbahnen sind ständig bestrebt, für unsere Gäste ein einzigartiges und zusätzliches Angebot zum Skifahren und Snowboarden zu finden", erklärt Ing. Michael Emberger, Geschäftsführer der Bergbahnen Hochkönig. "Wir freuen uns sehr, unseren Gästen als erstes österreichisches Seilbahnunternehmen in Ski amadé dieses einmalige Produkt zur Verfügung zu stellen. Mit Loop21 haben wir einen Partner gefunden, mit dem wir dieses innovative Projekt, nämlich die Mischung aus WIFI und Informationsquelle, verwirklichen können."
Das drahtlose Netz erstreckt sich auf die komplette 8er-Kabinenbahn mit über 2 Kilometer Gesamtlänge. Unterbrechungsfrei erhalten die Skigäste eine moderne WLAN-Infoplattform, "Mountainment®" genannt. Das sind lokale Infos über Wetter, Pistenplan, direkte Links zum App-Download sowie Zugriff auf Facebook und Internet. Der schnelle, unkomplizierte Zugriff auf die Inhalte, welche der Gast unterwegs braucht und sucht, steigert den Komfort und die Zufriedenheit.
Web-Controlling und Social-Media-Controlling
Veröffentlicht am 17.09.2013 00:01:40
Nehmen wir an, Sie kaufen ein gutes Buch bei einem Internethändler. Sie loggen sich ein, Sie suchen, Sie klicken, Sie legen das Produkt in den Einkaufswagen, Sie sehen sich einige Zusatzangebote an; schließlich bestellen Sie noch drei Bücher und fühlen den dringenden Bedarf nach einer neuen Küchenmaschine, die auch bald im Einkaufswagen landet. Nach einer knappen Stunde zahlen Sie, loggen sich aus, erfahren das unangenehme Gefühl der postakquisitorischen Dissonanz und beginnen endlich zu arbeiten.
Kaum eine andere wirtschaftliche Transaktion bietet so vielfältige und dennoch messbare Informationen wie der Kaufprozess über das Internet: Für Webshopbetreiber hinterlassen Sie eine Fülle interessanter Datenspuren, die in Kennzahlen ausgedrückt werden können. Sie erlauben damit eine Beurteilung der Effektivität und Effizienz des Webshops und sind wesentlicher Bestandteil des Reportings und Controllings. Zur betriebswirtschaftlichen Analyse werden beim Besuchs- und Kaufverhalten drei Phasen unterschieden: die Informationsphase, die Transaktions- und Vereinbarungsphase sowie die Nachkaufphase.
Die Informationsphase beschreibt, wie Besucher auf die Webseite kommen, wie sie die Mouse auf der einzelnen Webseite bewegen, was sie dort tun und welche Informationen sie suchen, bevor ein Kauf getätigt wird. Zunächst wird erfasst, ob Besucher direkt durch Eingabe oder Bookmarken des URL (no Referrer), durch eine Websuche oder durch einen Werbebanner oder Link (Referring Link) gekommen sind. Die Uhrzeit und der Wochentag des Besuchs erlauben Rückschlüsse über die Kundenstruktur (Wochentag/Stunden mit der höchsten Besucheranzahl) und ermöglichen die Planung von Online- und Offlinemarketingmaßnahmen. Ob Sie wiederkehrender (Unique Visitor) oder Neukunde sind (New Customer), zeigt die Popularität und Zufriedenheit des Shops. Welche Seite Sie als Einstiegsseite zur Orientierung verwenden (Top Entry Page), gibt Auskunft über die Effizienz von Marketingpartnerschaften (Affiliate Programmes) oder durchgeführten Suchmaschinenmarketingaktivitäten.
Nachdem der Besucher den Shop betreten hat, wird das Surfverhalten (Clickstream) beobachtet. Dabei geht es vor allem um die Zeit, die im Shop verbracht wird (Visiting Time), und die Punkte, an denen er verlassen wird (Drop-Off Rate). Die Besuchstiefe (Visiting Depth) zeigt, wie viele Webseiten betrachtet wurden, und der Fokus (Focus) verdeutlicht, wie gezielt dabei vorgegangen wurde; die Messung der Klickpfade (Click Paths) lässt Aussagen über die Benutzerfreundlichkeit des Webshops und das Such- und Informationsverhalten zu.
Die Transaktions- und Vereinbarungsphase beginnt mit dem Ablegen des Produkts in den Einkaufswagen und endet mit der Lieferung. Der Übergang von Informations- zu Transaktionsphase kann durch die Kennzahlen "Look to Click" - "Click to Basket" - "Basket to Buy" beschrieben werden, die zeigen, wie viele der angesehenen Produkte angeklickt, in den Warenkorb gelegt und schließlich wirklich gekauft werden.
Die Nachkaufphase umfasst im Wesentlichen die Serviceprozesse, wie die Bearbeitung von Reklamationen oder die Bereitstellung von und der Bedarf nach Gebrauchshinweisen. Die Beschwerde- und Rücksendequote erlaubt eine Analyse der Informationsqualität des Shops.
Zur Messung der Attraktivität und Qualität des Shops wird erhoben, wie viele Kunden zu Wiederkäufern werden (Repeat Customer Conversion Rate) oder sogar den Shop weiterempfehlen (Empfehlungskonversion); unzufriedene Kunden fallen durch die Länge des Fernbleibens (Recency) oder gänzliches Abwandern (Attrition Rate) auf. Wird versucht, verlorene Kunden zurückzugewinnen und neue Kunden zu akquirieren, dann schließt sich Kreis zur Neukundengewinnung und der Informationsphase.
Die Kundengewinnung ist letztlich eine Werbewirkungsmessung, deren Effektivität durch die Betrachtung einer Online-Werbung (Ad Impression), das Klicken auf die Werbung (Ad Click Rate) und schließlich den Kauf aufgrund der Werbung (Ad Conversion Rate) beschrieben werden kann. Die Effizienz der Werbemaßnahmen kann durch klassische Kennzahlen wie Tausendkontaktpreis (TKP) und die Akquisitionskosten pro Kunden erfasst werden.
Die oben erwähnten Web-Kennzahlen haben in den letzten Jahren sehr stark an Bedeutung gewonnen. Zur Steuerung der Digitalstrategie existieren bereits verschiedene kostenfreie (z.B. Google Analytics) oder kostenpflichtige Web-Controlling-Softwarelösungen (z.B. etracker, Adobe), die Unternehmen bei der Analyse ihrer Webinformationen bzw. ihres Webshops und ihrer Webseite unterstützen. Diese Web-Controlling-Softwarelösungen basieren vornehmlich auf Page-Tagging-Mechanismen und aggregieren die gespeicherten Webinformationen in übersichtliche und für Menschen verständliche Diagramme, Dashboards und Kennzahlen. Im Zuge dieser Entwicklung ist in den letzten Jahren ein neues Berufsfeld, dass des Web-Controllers entstanden. Die Anforderungen und notwendigen Fachkenntnisse an den Web-Controller unterscheiden sich zum Teil wesentlich von denen des klassischen Controllers, beispielsweise sind Erfahrung im e-Business und tiefgehendes technisches Verständnis notwendig. Die Aufgabenbereiche eines Web-Controllers, z.B. Reporting der Webkennzahlen, Entwicklung von Analysekonzepten, Entwicklung neuer Webkennzahlen etc. sind denen eines klassischen Controllers sehr ähnlich. In Anbetracht der steigenden Bedeutung von Social Media Commerce und Social Media Marketing sind zusätzlich zu den klassischen webseitenbezogenen Webkennzahlen, sogenannten Social-Media-Kennzahlen (z.B. Anzahl der Fans, Anzahl der Follower, Facebook-Impressions, Beitragshäufigkeit, Interaktivität) entstanden, die den Erfolg von Social-Media-Aktivtitäten messen. Unter dem Fachbegriff Social Media Analytics existieren derzeit bereits auch eine Vielzahl an Softwarelösungen, die Unternehmen bei der Bewertung ihrer Social-Media-Aktivitäten unterstützen.
Seminartipp: Web-Controlling - Neue Kennzahlen für den Unternehmenserfolg -
Mehr darüber unter
http://www.controller-institut.at/bildungsprogramm/web-controlling-neue-kennzahlen-fuer-den-unternehmenserfolg-5694ee
Veröffentlicht am 17.09.2013 00:01:40
Nehmen wir an, Sie kaufen ein gutes Buch bei einem Internethändler. Sie loggen sich ein, Sie suchen, Sie klicken, Sie legen das Produkt in den Einkaufswagen, Sie sehen sich einige Zusatzangebote an; schließlich bestellen Sie noch drei Bücher und fühlen den dringenden Bedarf nach einer neuen Küchenmaschine, die auch bald im Einkaufswagen landet. Nach einer knappen Stunde zahlen Sie, loggen sich aus, erfahren das unangenehme Gefühl der postakquisitorischen Dissonanz und beginnen endlich zu arbeiten.
Kaum eine andere wirtschaftliche Transaktion bietet so vielfältige und dennoch messbare Informationen wie der Kaufprozess über das Internet: Für Webshopbetreiber hinterlassen Sie eine Fülle interessanter Datenspuren, die in Kennzahlen ausgedrückt werden können. Sie erlauben damit eine Beurteilung der Effektivität und Effizienz des Webshops und sind wesentlicher Bestandteil des Reportings und Controllings. Zur betriebswirtschaftlichen Analyse werden beim Besuchs- und Kaufverhalten drei Phasen unterschieden: die Informationsphase, die Transaktions- und Vereinbarungsphase sowie die Nachkaufphase.
Die Informationsphase beschreibt, wie Besucher auf die Webseite kommen, wie sie die Mouse auf der einzelnen Webseite bewegen, was sie dort tun und welche Informationen sie suchen, bevor ein Kauf getätigt wird. Zunächst wird erfasst, ob Besucher direkt durch Eingabe oder Bookmarken des URL (no Referrer), durch eine Websuche oder durch einen Werbebanner oder Link (Referring Link) gekommen sind. Die Uhrzeit und der Wochentag des Besuchs erlauben Rückschlüsse über die Kundenstruktur (Wochentag/Stunden mit der höchsten Besucheranzahl) und ermöglichen die Planung von Online- und Offlinemarketingmaßnahmen. Ob Sie wiederkehrender (Unique Visitor) oder Neukunde sind (New Customer), zeigt die Popularität und Zufriedenheit des Shops. Welche Seite Sie als Einstiegsseite zur Orientierung verwenden (Top Entry Page), gibt Auskunft über die Effizienz von Marketingpartnerschaften (Affiliate Programmes) oder durchgeführten Suchmaschinenmarketingaktivitäten.
Nachdem der Besucher den Shop betreten hat, wird das Surfverhalten (Clickstream) beobachtet. Dabei geht es vor allem um die Zeit, die im Shop verbracht wird (Visiting Time), und die Punkte, an denen er verlassen wird (Drop-Off Rate). Die Besuchstiefe (Visiting Depth) zeigt, wie viele Webseiten betrachtet wurden, und der Fokus (Focus) verdeutlicht, wie gezielt dabei vorgegangen wurde; die Messung der Klickpfade (Click Paths) lässt Aussagen über die Benutzerfreundlichkeit des Webshops und das Such- und Informationsverhalten zu.
Die Transaktions- und Vereinbarungsphase beginnt mit dem Ablegen des Produkts in den Einkaufswagen und endet mit der Lieferung. Der Übergang von Informations- zu Transaktionsphase kann durch die Kennzahlen "Look to Click" - "Click to Basket" - "Basket to Buy" beschrieben werden, die zeigen, wie viele der angesehenen Produkte angeklickt, in den Warenkorb gelegt und schließlich wirklich gekauft werden.
Die Nachkaufphase umfasst im Wesentlichen die Serviceprozesse, wie die Bearbeitung von Reklamationen oder die Bereitstellung von und der Bedarf nach Gebrauchshinweisen. Die Beschwerde- und Rücksendequote erlaubt eine Analyse der Informationsqualität des Shops.
Zur Messung der Attraktivität und Qualität des Shops wird erhoben, wie viele Kunden zu Wiederkäufern werden (Repeat Customer Conversion Rate) oder sogar den Shop weiterempfehlen (Empfehlungskonversion); unzufriedene Kunden fallen durch die Länge des Fernbleibens (Recency) oder gänzliches Abwandern (Attrition Rate) auf. Wird versucht, verlorene Kunden zurückzugewinnen und neue Kunden zu akquirieren, dann schließt sich Kreis zur Neukundengewinnung und der Informationsphase.
Die Kundengewinnung ist letztlich eine Werbewirkungsmessung, deren Effektivität durch die Betrachtung einer Online-Werbung (Ad Impression), das Klicken auf die Werbung (Ad Click Rate) und schließlich den Kauf aufgrund der Werbung (Ad Conversion Rate) beschrieben werden kann. Die Effizienz der Werbemaßnahmen kann durch klassische Kennzahlen wie Tausendkontaktpreis (TKP) und die Akquisitionskosten pro Kunden erfasst werden.
Die oben erwähnten Web-Kennzahlen haben in den letzten Jahren sehr stark an Bedeutung gewonnen. Zur Steuerung der Digitalstrategie existieren bereits verschiedene kostenfreie (z.B. Google Analytics) oder kostenpflichtige Web-Controlling-Softwarelösungen (z.B. etracker, Adobe), die Unternehmen bei der Analyse ihrer Webinformationen bzw. ihres Webshops und ihrer Webseite unterstützen. Diese Web-Controlling-Softwarelösungen basieren vornehmlich auf Page-Tagging-Mechanismen und aggregieren die gespeicherten Webinformationen in übersichtliche und für Menschen verständliche Diagramme, Dashboards und Kennzahlen. Im Zuge dieser Entwicklung ist in den letzten Jahren ein neues Berufsfeld, dass des Web-Controllers entstanden. Die Anforderungen und notwendigen Fachkenntnisse an den Web-Controller unterscheiden sich zum Teil wesentlich von denen des klassischen Controllers, beispielsweise sind Erfahrung im e-Business und tiefgehendes technisches Verständnis notwendig. Die Aufgabenbereiche eines Web-Controllers, z.B. Reporting der Webkennzahlen, Entwicklung von Analysekonzepten, Entwicklung neuer Webkennzahlen etc. sind denen eines klassischen Controllers sehr ähnlich. In Anbetracht der steigenden Bedeutung von Social Media Commerce und Social Media Marketing sind zusätzlich zu den klassischen webseitenbezogenen Webkennzahlen, sogenannten Social-Media-Kennzahlen (z.B. Anzahl der Fans, Anzahl der Follower, Facebook-Impressions, Beitragshäufigkeit, Interaktivität) entstanden, die den Erfolg von Social-Media-Aktivtitäten messen. Unter dem Fachbegriff Social Media Analytics existieren derzeit bereits auch eine Vielzahl an Softwarelösungen, die Unternehmen bei der Bewertung ihrer Social-Media-Aktivitäten unterstützen.
Seminartipp: Web-Controlling - Neue Kennzahlen für den Unternehmenserfolg -
Mehr darüber unter
http://www.controller-institut.at/bildungsprogramm/web-controlling-neue-kennzahlen-fuer-den-unternehmenserfolg-5694ee
Neue Software auf der dmexco, Google-Versteher Forecheck erhält Innovationspreis
Veröffentlicht am 17.09.2013 00:01:39
Die neue SEO Software Forecheck hat bei der deutschen Initiative Mittelstand 2013 den Sieg errungen und zählt damit zu den innovativsten Lösungen auf dem Softwaremarkt rund um das Thema Suchmaschinenoptimierung und Content Management. http://www.cms-bestenliste.de/produkt/1551-forecheck-seo--website-analytics.html
Die Software weist einige Besonderheiten auf: Sie ist eine Windows Software und kein Webservice und wird auf einem Windows PC installiert (lauffähig ab Windows XP Service Pack 3). Die Software kann Websites mit mehr als 1 Millionen URLs in wenigen Stunden vollständig analysieren. Dabei arbeitet sich die Software wie ein Crawler einer Suchmaschine durch die komplette Website durch und analysiert jede Seite, jedes Bild und alle Elemente auf hunderte von Faktoren.
Die Software unterstützt nicht nur alle Sprachen und Kodierungen weltweit, sondern beherrscht auch alle programmiertechnischen Darstellungsformen von Text und wandelt diese alle korrekt in Text um, damit die Software alle Inhalte, die intern als Unicode gespeichert werden, richtig verstehen kann. Analysen von Websites werden in Quasi-Echtzeit auf Knopfdruck durchgeführt. Forecheck ist dabei extrem schnell und kann auf Wunsch bis zu 1.000 Anfragen parallel verarbeiten. Die hohe Leistungsfähigkeit wurde auch durch ein Zertifikat von intel bestätigt: "Enhanced for intel iCore". Eingesetzt wurde die Software schon in zahlreichen Projekten, unter anderem beim Relaunch des Shops der Firma cancom, eines der größten Systemhäuser Deutschlands.
Die Preise für derartiges Analysetool beginnen bei 49 Euro pro Monat. Es gibt vier Versionen die auf Monatsbasis abonniert oder als Jahreslizenz gekauft werden können. Die Unterschiede der Versionen können im Shop eingesehen werden:
http://www.cyberpromote.de/shop
Einen kurzen Überblick über die Funktionen der Software mit Beispielen finden Sie unter
http://www.cyberpromote.de/?p=3582
Veröffentlicht am 17.09.2013 00:01:39
Die neue SEO Software Forecheck hat bei der deutschen Initiative Mittelstand 2013 den Sieg errungen und zählt damit zu den innovativsten Lösungen auf dem Softwaremarkt rund um das Thema Suchmaschinenoptimierung und Content Management. http://www.cms-bestenliste.de/produkt/1551-forecheck-seo--website-analytics.html
Die Software weist einige Besonderheiten auf: Sie ist eine Windows Software und kein Webservice und wird auf einem Windows PC installiert (lauffähig ab Windows XP Service Pack 3). Die Software kann Websites mit mehr als 1 Millionen URLs in wenigen Stunden vollständig analysieren. Dabei arbeitet sich die Software wie ein Crawler einer Suchmaschine durch die komplette Website durch und analysiert jede Seite, jedes Bild und alle Elemente auf hunderte von Faktoren.
Die Software unterstützt nicht nur alle Sprachen und Kodierungen weltweit, sondern beherrscht auch alle programmiertechnischen Darstellungsformen von Text und wandelt diese alle korrekt in Text um, damit die Software alle Inhalte, die intern als Unicode gespeichert werden, richtig verstehen kann. Analysen von Websites werden in Quasi-Echtzeit auf Knopfdruck durchgeführt. Forecheck ist dabei extrem schnell und kann auf Wunsch bis zu 1.000 Anfragen parallel verarbeiten. Die hohe Leistungsfähigkeit wurde auch durch ein Zertifikat von intel bestätigt: "Enhanced for intel iCore". Eingesetzt wurde die Software schon in zahlreichen Projekten, unter anderem beim Relaunch des Shops der Firma cancom, eines der größten Systemhäuser Deutschlands.
Die Preise für derartiges Analysetool beginnen bei 49 Euro pro Monat. Es gibt vier Versionen die auf Monatsbasis abonniert oder als Jahreslizenz gekauft werden können. Die Unterschiede der Versionen können im Shop eingesehen werden:
http://www.cyberpromote.de/shop
Einen kurzen Überblick über die Funktionen der Software mit Beispielen finden Sie unter
http://www.cyberpromote.de/?p=3582
"Telepathie": Mikrofon sendet Sound via Fingerspitze
Veröffentlicht am 12.09.2013 00:13:55
Pittsburgh - Die findigen Ingenieure von Disney Research http://www.disneyresearch.com haben einen revolutionären neuen Ansatz entwickelt, der die Übertragung von akustischen Signalen über den menschlichen Körper ermöglicht.
Bei der "Ishin-Den-Shin"-Technologie - einem japanischen Ausdruck der übersetzt in etwa "wortlose Verständigung" bedeutet - wird dabei ein herkömmliches Standardmikrofon verwendet, um Audiosignale aufzunehmen. Diese werden anschließend in ein nicht hörbares elektrisches Signal umgewandelt, das in den Körper des Sprechers zurückgeschickt wird. Sobald dieser dann mit seinen Fingerspitzen das Ohrläppchen einer anderen Person berührt, entsteht eine Vibration, die als akustisches Signal wahrgenommen wird.
"Ishin-Den-Shin ist ein Mantra, das für das traditionelle japanische Konzept der interpersonellen Kommunikation durch unausgesprochene gegenseitige Verständigung steht", erklären die Disney-Forscher Yuri Suzuki, Olivier Bau und Ivan Poupyrev auf ihrer Projektwebseite. Sinngemäß ließe sich das Konzept auch als "Telepathie" übersetzen, heißt es weiter. "Im Kern dieser Technologie steht ein Mikrofon, das Audiosignale aufnehmen und diese von Körper zu Körper über Berührung weiterleiten kann", erläutern die Techniker. Die Signale sind aber nur von dem Ohr hörbar, das berührt wird. "Geheimnisse und geflüsterte Botschaften können so durch physischen Kontakt von einer Person zur nächsten weitergegeben werden. Der Körper wird zum Übertragungsmedium für intimen, physischen Klangtransfer", so die Disney-Ingenieure.
Um diese innovative Form der Audioübertragung zu ermöglichen, haben Suzuki, Bau und Poupyrev ein handelsübliches "Shure 55"-Mikrofon mit der Soundkarte eines Computers verbunden. Das Mikrofon nimmt akustische Signale auf, sobald diese eine bestimmte vorher definierte Amplitudenhöhe überschreiten. Der Computer verwandelt die aufgenommenen Klänge daraufhin in eine Soundschleife in Form eines nicht hörbaren elektrischen Signals mit hoher Spannung und niedriger Stromstärke. Die Hardware ist dabei mit der leitenden metallischen Hülle des Mikrofons über einen dünnen, kaum sichtbaren Draht verbunden, der um dessen Audiokabel gewickelt ist.
Sobald das "Ishin-Den-Shin"-Mikrofon von einem Sprecher in der Hand gehalten wird, kommt dieser in Kontakt mit dem nicht hörbaren Signal des aufgenommenen Sounds. "Dadurch entsteht ein moduliertes elektrostatisches Feld, das die Haut des Signalgebers umgibt. Wenn dieser das Ohr einer anderen Person berührt, erzeugt das elektrostatische Feld eine sehr kleine Vibration des Ohrläppchens. Finger und Ohr ergeben gemeinsam einen Lautsprecher, der das Signal für denjenigen, der berührt wird, hörbar werden lässt", schildern die Forscher die Funktionsweise.
Was auf den ersten Blick etwas skurril erscheinen mag, ist bei genauerer Betrachtung schon längst keine Science-Fiction-Fantasie mehr. Gerade in jüngerer Vergangenheit häufen sich technologische Konzepte, die damit experimentieren, den menschlichen Körper als Übertragungsmedium für Audiosignale zu erschließen. Das Projekt von Disney Research ist hier nur ein interessantes Beispiel. Ob spezielle Kopfhörer, Gold-Mundstücke für Gangster-Rapper oder Googles Hightech-Brille "Glass" - derartige Übertragungsmöglichkeiten werden vielfach eingesetzt und versprechen ein enormes Anwendungspotenzial, sind sich Experten einig.
Veröffentlicht am 12.09.2013 00:13:55
Pittsburgh - Die findigen Ingenieure von Disney Research http://www.disneyresearch.com haben einen revolutionären neuen Ansatz entwickelt, der die Übertragung von akustischen Signalen über den menschlichen Körper ermöglicht.
Bei der "Ishin-Den-Shin"-Technologie - einem japanischen Ausdruck der übersetzt in etwa "wortlose Verständigung" bedeutet - wird dabei ein herkömmliches Standardmikrofon verwendet, um Audiosignale aufzunehmen. Diese werden anschließend in ein nicht hörbares elektrisches Signal umgewandelt, das in den Körper des Sprechers zurückgeschickt wird. Sobald dieser dann mit seinen Fingerspitzen das Ohrläppchen einer anderen Person berührt, entsteht eine Vibration, die als akustisches Signal wahrgenommen wird.
"Ishin-Den-Shin ist ein Mantra, das für das traditionelle japanische Konzept der interpersonellen Kommunikation durch unausgesprochene gegenseitige Verständigung steht", erklären die Disney-Forscher Yuri Suzuki, Olivier Bau und Ivan Poupyrev auf ihrer Projektwebseite. Sinngemäß ließe sich das Konzept auch als "Telepathie" übersetzen, heißt es weiter. "Im Kern dieser Technologie steht ein Mikrofon, das Audiosignale aufnehmen und diese von Körper zu Körper über Berührung weiterleiten kann", erläutern die Techniker. Die Signale sind aber nur von dem Ohr hörbar, das berührt wird. "Geheimnisse und geflüsterte Botschaften können so durch physischen Kontakt von einer Person zur nächsten weitergegeben werden. Der Körper wird zum Übertragungsmedium für intimen, physischen Klangtransfer", so die Disney-Ingenieure.
Um diese innovative Form der Audioübertragung zu ermöglichen, haben Suzuki, Bau und Poupyrev ein handelsübliches "Shure 55"-Mikrofon mit der Soundkarte eines Computers verbunden. Das Mikrofon nimmt akustische Signale auf, sobald diese eine bestimmte vorher definierte Amplitudenhöhe überschreiten. Der Computer verwandelt die aufgenommenen Klänge daraufhin in eine Soundschleife in Form eines nicht hörbaren elektrischen Signals mit hoher Spannung und niedriger Stromstärke. Die Hardware ist dabei mit der leitenden metallischen Hülle des Mikrofons über einen dünnen, kaum sichtbaren Draht verbunden, der um dessen Audiokabel gewickelt ist.
Sobald das "Ishin-Den-Shin"-Mikrofon von einem Sprecher in der Hand gehalten wird, kommt dieser in Kontakt mit dem nicht hörbaren Signal des aufgenommenen Sounds. "Dadurch entsteht ein moduliertes elektrostatisches Feld, das die Haut des Signalgebers umgibt. Wenn dieser das Ohr einer anderen Person berührt, erzeugt das elektrostatische Feld eine sehr kleine Vibration des Ohrläppchens. Finger und Ohr ergeben gemeinsam einen Lautsprecher, der das Signal für denjenigen, der berührt wird, hörbar werden lässt", schildern die Forscher die Funktionsweise.
Was auf den ersten Blick etwas skurril erscheinen mag, ist bei genauerer Betrachtung schon längst keine Science-Fiction-Fantasie mehr. Gerade in jüngerer Vergangenheit häufen sich technologische Konzepte, die damit experimentieren, den menschlichen Körper als Übertragungsmedium für Audiosignale zu erschließen. Das Projekt von Disney Research ist hier nur ein interessantes Beispiel. Ob spezielle Kopfhörer, Gold-Mundstücke für Gangster-Rapper oder Googles Hightech-Brille "Glass" - derartige Übertragungsmöglichkeiten werden vielfach eingesetzt und versprechen ein enormes Anwendungspotenzial, sind sich Experten einig.
Novarion Server mit neuen Prozessoren
Veröffentlicht am 12.09.2013 00:13:44
Wien - Heute erteilte Intel seinen Partnern die Freigabe zur Auslieferung der neuen "Ivy-Bridge" Dual Prozessoren.
Novarion http://www.novarion.com liefert seit heute Morgen diese neuen Systeme aus seinem weltweit einzigartig flexiblen Build2Order Programm aufgrund der Kundenanforderungen maßgeschneidert aus.
Die neuen Intel Xeon E5-2600v2 Prozessoren, wie diese genau heißen, zeichnen sich durch deutliche Leistungssteigerungen zu den bisherigen Modellen aus. Dies wird hauptsächlich durch die neue Strukturgröße der kleinsten Bauelemente von 22nm erreicht. 1nm ist der milliardste Teil eines Meters.
Novarion entwickelte in den letzten Monaten komplette Serversysteme, die auf diesen neuen Intel Xeon Prozessoren basieren und implementierte auch den Intel Turbo-Mode, welcher die Prozessorleistung (core-speed) bei Bedarf nochmals um 30% erhöht. Dabei sind Novarion Server unter den ersten weltweit, die mit der neuen 1866MHz Speichertechnologie ausgerüstet sind. Darüber hinaus sind nun in 2-Prozessorsystemen bis zu 24 Prozessorkerne (cores) verfügbar.
Alles in Allem überzeugen Novarion Server einmal mehr durch die höchstmöglichen Leistungsdaten, welche auf Industriestandard möglich sind. Dazu gehört selbstverständlich das einzigartige Novarion-High-Tech-Service (NHTS), welches IT Administratoren die Möglichkeit gibt sich mit Fragen direkt an die Komponentenentwickler der Novarion Server zu wenden. Dies führt zur einzigartigen Service-Qualität von Novarion in der IT-Industrie.
Veröffentlicht am 12.09.2013 00:13:44
Wien - Heute erteilte Intel seinen Partnern die Freigabe zur Auslieferung der neuen "Ivy-Bridge" Dual Prozessoren.
Novarion http://www.novarion.com liefert seit heute Morgen diese neuen Systeme aus seinem weltweit einzigartig flexiblen Build2Order Programm aufgrund der Kundenanforderungen maßgeschneidert aus.
Die neuen Intel Xeon E5-2600v2 Prozessoren, wie diese genau heißen, zeichnen sich durch deutliche Leistungssteigerungen zu den bisherigen Modellen aus. Dies wird hauptsächlich durch die neue Strukturgröße der kleinsten Bauelemente von 22nm erreicht. 1nm ist der milliardste Teil eines Meters.
Novarion entwickelte in den letzten Monaten komplette Serversysteme, die auf diesen neuen Intel Xeon Prozessoren basieren und implementierte auch den Intel Turbo-Mode, welcher die Prozessorleistung (core-speed) bei Bedarf nochmals um 30% erhöht. Dabei sind Novarion Server unter den ersten weltweit, die mit der neuen 1866MHz Speichertechnologie ausgerüstet sind. Darüber hinaus sind nun in 2-Prozessorsystemen bis zu 24 Prozessorkerne (cores) verfügbar.
Alles in Allem überzeugen Novarion Server einmal mehr durch die höchstmöglichen Leistungsdaten, welche auf Industriestandard möglich sind. Dazu gehört selbstverständlich das einzigartige Novarion-High-Tech-Service (NHTS), welches IT Administratoren die Möglichkeit gibt sich mit Fragen direkt an die Komponentenentwickler der Novarion Server zu wenden. Dies führt zur einzigartigen Service-Qualität von Novarion in der IT-Industrie.
HDS zeigt auf IBC Lösungen aus dem Bereich Communications, Media & Entertainment
Veröffentlicht am 12.09.2013 00:13:31
Wien - "Der CME-Markt ist an einen Wendepunkt gelangt. Neue Kanäle und starke Konsolidierungsaktivitäten in dieser Branche erfordern neue Bereitstellungsmodelle für Videoinhalte und entsprechende Infrastrukturangebote", sagt Horst Heftberger, General Manager von Hitachi Data Systems Austria. "Wir sind der festen Überzeugung, dass wir zur innovativen Spitze zählen, was die IT-Umgebungen für diesen Markt angeht. Das werden wir auch auf der IBC zeigen, unter anderem im Rahmen von Referenzprojekten für kostengünstige High-Performance-Videolösungen."
Hitachi Data Systems wird unter anderem mit den Partnern Brocade und V-Nova Referenzarchitekturen zeigen. Brocade ist Anbieter von fabric-based Ethernet- und Fibre-Channel-Netzwerklösungen. Der Switch VDX-6720 des Unternehmens bietet zum Beispiel 24 bis 60 LAN-Ports mit 10-Gbit/s-Ethernet-Standard für NAS, iSCSI und Fibre Channel over Ethernet (FCoE). V-Nova ist auf Encode- und Transcode-Lösungen mit geringer Latenzzeit für hochwertige Echtzeit-Videoangebote spezialisiert. HDS selbst wird neben seinen HNAS-Systemen weitere Lösungen für das CME-Segment präsentieren, darunter vollständig mit Flash-Speicher ausgerüstete und entsprechend leistungsstarke Speicherplattformen.
Veröffentlicht am 12.09.2013 00:13:31
Wien - "Der CME-Markt ist an einen Wendepunkt gelangt. Neue Kanäle und starke Konsolidierungsaktivitäten in dieser Branche erfordern neue Bereitstellungsmodelle für Videoinhalte und entsprechende Infrastrukturangebote", sagt Horst Heftberger, General Manager von Hitachi Data Systems Austria. "Wir sind der festen Überzeugung, dass wir zur innovativen Spitze zählen, was die IT-Umgebungen für diesen Markt angeht. Das werden wir auch auf der IBC zeigen, unter anderem im Rahmen von Referenzprojekten für kostengünstige High-Performance-Videolösungen."
Hitachi Data Systems wird unter anderem mit den Partnern Brocade und V-Nova Referenzarchitekturen zeigen. Brocade ist Anbieter von fabric-based Ethernet- und Fibre-Channel-Netzwerklösungen. Der Switch VDX-6720 des Unternehmens bietet zum Beispiel 24 bis 60 LAN-Ports mit 10-Gbit/s-Ethernet-Standard für NAS, iSCSI und Fibre Channel over Ethernet (FCoE). V-Nova ist auf Encode- und Transcode-Lösungen mit geringer Latenzzeit für hochwertige Echtzeit-Videoangebote spezialisiert. HDS selbst wird neben seinen HNAS-Systemen weitere Lösungen für das CME-Segment präsentieren, darunter vollständig mit Flash-Speicher ausgerüstete und entsprechend leistungsstarke Speicherplattformen.
US-User verstärkt um Online-Anonymität bemüht
Veröffentlicht am 10.09.2013 13:30:18
Washington/New York - Internet-User in den USA sorgen sich zunehmend um ihre Privatsphäre. So haben bereits 86 Prozent aktiv Schritte gesetzt, um ihre Spuren im Netz zu verwischen, wie das Internet Project des Pew Research Centers ermittelt hat. "Nutzer wollen sichtlich die Möglichkeit, Online anonym zu bleiben und machen sich zunehmend Sorgen, dass das nicht möglich ist", so Projektleiter Lee Rainie. Mehr als die Hälfte der Befragten haben sich auch schon darum bemüht, den neugierigen Online-Blicken bestimmter Personen oder Organisationen zu entfliehen.
Trotz NSA-Abhörskandal überwiegt zumindest zum Umfragezeitpunkt Mitte Juli eher Sorge um Hacker oder Spione im eigenen Umfeld, nicht die Angst vor dem staatlichen Abhören. Dabei ist die Gefahr noch größer, als bisher angenommen. Der Guardian und die New York Times berichten aktuell, dass von Edward Snowden vorgelegten Dokumenten zufolge sowohl die NSA als auch deren britischer Gegenpart Government Communications Headquarters (GCHQ) gängige Verschlüsselungen problemlos aushebeln können.</p>
Wenn es um den Schutz ihrer Privatsphäre im Internet geht, setzen User der Studie zufolge nach wie vor eher auf einfache Tricks. Knapp zwei Drittel der insgesamt 792 befragten Internet-Nutzer haben schon den Browser-Verlauf geleert oder Cookies gelöscht, immerhin 41 Prozent Cookies zumindest zeitweise deaktiviert. Genauso viele haben schon eigene Online-Postings geändert oder gelöscht, gut jeder Vierte schon von temporären E-Mail-Adressen oder -Accounts Gebrauch gemacht. Immerhin 21 Prozent sind schon aktiv geworden, um andere zum Löschen sie betreffender Postings zu bewegen.
Wirklich aufwendigere Schutzmaßnahmen ergreift jedoch nur eine kleine Minderheit der Anwender. Lediglich 14 Prozent der Befragten haben schon einmal einen Anonymisierungsdienst wie Tor genutzt. Ebenso klein ist der Anteil der User, die bewusst Verschlüsselung nutzen. Zumindest zum Schutz vor staatlicher Spionage würde Letzteres aber wohl wenig helfen. Denn offenbar haben NSA und GCHQ sehr wohl ihre Methoden, um beispielsweise SSL-Verschlüsselung zu knacken und Voice-over-IP-Telefonie abzuhören.
Obwohl der NSA-Skandal zum Zeitpunkt der Befragung längst hohe Wellen geschlagen hat, machen sich zumindest US-Nutzer aber offenbar wenig Sorgen, dass sie von Regierung oder Behörden beobachtet werden - nur fünf bzw. vier Prozent geben an, bewusst versucht zu haben, sich deren Online-Blicken zu entziehen. Jeder Dritte dagegen will sich vor Hackern und Kriminellen schützen und das offenbar aus gutem Grund. Mehr als ein Fünftel der User sahen sich schon mit einem kompromittierten E-Mail- oder Social-Networking-Account konfrontiert, immerhin elf Prozent wurden schon Informationen wie Sozialversicherungsnummer oder Kreditkartendaten gestohlen.
Offensichtlich misstrauen User aber auch Online-Werbenden stark, denn 28 Prozent der Befragten versuchen sich online speziell vor Mithörern zu schützen. Doch auch das persönliche Umfeld ist für viele ein Grund, gezielt auf ihre Privatsphäre im Internet zu achten. Jeweils knapp ein Fünftel versucht, nicht von bestimmten Freunden bzw. Personen aus ihrer Vergangenheit beobachtet zu werden. Das dürfte damit zusammenhängen, dass immerhin zwölf Prozent bereits Opfer von Online-Stalking oder Belästigung wurden.
Veröffentlicht am 10.09.2013 13:30:18
Washington/New York - Internet-User in den USA sorgen sich zunehmend um ihre Privatsphäre. So haben bereits 86 Prozent aktiv Schritte gesetzt, um ihre Spuren im Netz zu verwischen, wie das Internet Project des Pew Research Centers ermittelt hat. "Nutzer wollen sichtlich die Möglichkeit, Online anonym zu bleiben und machen sich zunehmend Sorgen, dass das nicht möglich ist", so Projektleiter Lee Rainie. Mehr als die Hälfte der Befragten haben sich auch schon darum bemüht, den neugierigen Online-Blicken bestimmter Personen oder Organisationen zu entfliehen.
Trotz NSA-Abhörskandal überwiegt zumindest zum Umfragezeitpunkt Mitte Juli eher Sorge um Hacker oder Spione im eigenen Umfeld, nicht die Angst vor dem staatlichen Abhören. Dabei ist die Gefahr noch größer, als bisher angenommen. Der Guardian und die New York Times berichten aktuell, dass von Edward Snowden vorgelegten Dokumenten zufolge sowohl die NSA als auch deren britischer Gegenpart Government Communications Headquarters (GCHQ) gängige Verschlüsselungen problemlos aushebeln können.</p>
Wenn es um den Schutz ihrer Privatsphäre im Internet geht, setzen User der Studie zufolge nach wie vor eher auf einfache Tricks. Knapp zwei Drittel der insgesamt 792 befragten Internet-Nutzer haben schon den Browser-Verlauf geleert oder Cookies gelöscht, immerhin 41 Prozent Cookies zumindest zeitweise deaktiviert. Genauso viele haben schon eigene Online-Postings geändert oder gelöscht, gut jeder Vierte schon von temporären E-Mail-Adressen oder -Accounts Gebrauch gemacht. Immerhin 21 Prozent sind schon aktiv geworden, um andere zum Löschen sie betreffender Postings zu bewegen.
Wirklich aufwendigere Schutzmaßnahmen ergreift jedoch nur eine kleine Minderheit der Anwender. Lediglich 14 Prozent der Befragten haben schon einmal einen Anonymisierungsdienst wie Tor genutzt. Ebenso klein ist der Anteil der User, die bewusst Verschlüsselung nutzen. Zumindest zum Schutz vor staatlicher Spionage würde Letzteres aber wohl wenig helfen. Denn offenbar haben NSA und GCHQ sehr wohl ihre Methoden, um beispielsweise SSL-Verschlüsselung zu knacken und Voice-over-IP-Telefonie abzuhören.
Obwohl der NSA-Skandal zum Zeitpunkt der Befragung längst hohe Wellen geschlagen hat, machen sich zumindest US-Nutzer aber offenbar wenig Sorgen, dass sie von Regierung oder Behörden beobachtet werden - nur fünf bzw. vier Prozent geben an, bewusst versucht zu haben, sich deren Online-Blicken zu entziehen. Jeder Dritte dagegen will sich vor Hackern und Kriminellen schützen und das offenbar aus gutem Grund. Mehr als ein Fünftel der User sahen sich schon mit einem kompromittierten E-Mail- oder Social-Networking-Account konfrontiert, immerhin elf Prozent wurden schon Informationen wie Sozialversicherungsnummer oder Kreditkartendaten gestohlen.
Offensichtlich misstrauen User aber auch Online-Werbenden stark, denn 28 Prozent der Befragten versuchen sich online speziell vor Mithörern zu schützen. Doch auch das persönliche Umfeld ist für viele ein Grund, gezielt auf ihre Privatsphäre im Internet zu achten. Jeweils knapp ein Fünftel versucht, nicht von bestimmten Freunden bzw. Personen aus ihrer Vergangenheit beobachtet zu werden. Das dürfte damit zusammenhängen, dass immerhin zwölf Prozent bereits Opfer von Online-Stalking oder Belästigung wurden.
3D-Audio: Fraunhofer IIS zeigt neuen MPEG-Standard
Veröffentlicht am 10.09.2013 13:30:07
Erlangen - Wenn es um die Entwicklung des künftigen MPEG-Standards geht, stehen deutsche Forschungsinstitute weltweit an Spitzenposition. Ein entsprechender Vorschlag des Fraunhofer IIS http://www.iis.fraunhofer.de für eine neue 3D-Audio-Technologie konnte sich nun in der MPEG-Standardisierungsorganisation nach einem umfassenden Auswahlverfahren gegen die globale Konkurrenz durchsetzen. Das in Deutschland erarbeitete Konzept bildet somit die Grundlage für die weitere Entwicklung des künftigen MPEG-H-3D-Audio-Standards. Dieser Erfolg zeigt einmal mehr eindrucksvoll, dass die MP3- und AAC-Entwickler in Erlangen zur Weltspitze in der Audiocodierung gehören.
"Ein MPEG-Standard ist das Ergebnis eines intensiven Verfahrens. Eine internationale Expertengruppe, die sich aus Vertretern von Unternehmen und Forschungseinrichtungen zusammensetzt, sucht nach der besten technischen Lösung für ein existierendes Problem", erklärt Jan Plogsties, Leiter der Gruppe Semantic Audio Rendering im Bereich Audio und Multimedia des Fraunhofer IIS. Im aktuellen Fall werde nach einem Standard gesucht, der es ermöglicht, 3D-Audioinhalte über Internet, Rundfunk und Fernsehen zu übertragen und beim Endkunden wiederzugeben. "Unsere Technologie hat die Experten in weltweit sechs Forschungslaboren überzeugt und wurde so zum Referenzentwurf für den künftigen MPEG-3D-Audio-Standard", so der Experte.
Der kommende MPEG-Standard wird die effiziente und flexible Übertragung und Wiedergabe von 3D-Audiosignalen ermöglichen. Davon sollen alle denkbaren künftigen Wiedergabesysteme profitieren: 3D-Heimkinosysteme mit Lautsprechern für 22.2-Kanal-Ton, 3D-Audiosysteme im Auto und sogar Tablet-Computer und Smartphones, mit denen über Kopfhörer 3D-Sound wiedergegeben werden kann. "Es gibt bisher keinen MPEG-Standard, der sich mit 3D-Audio-Technologien beschäftigt. Bislang ging es nur um Mono-, Stereo- und Surround-Wiedergabe", betont Plogsties.
"In Zukunft werden die Produzenten mehr Möglichkeiten haben, Tonmischungen so zu erstellen, dass beliebig viele Kanäle genutzt und Klänge aus verschiedenen Richtungen kommen können. Solche Tonmischungen werden momentan schon fürs Kino produziert und auch bei den Fernsehsendern getestet", so der Experte weiter. "Damit in Zukunft TV-Ausstrahlungen oder online gekaufte Filme auch diese Tonqualität nach Hause liefern können und jeder Hersteller diese Formate abspielen kann, wird der neue MPEG-Standard entwickelt."
Veröffentlicht am 10.09.2013 13:30:07
Erlangen - Wenn es um die Entwicklung des künftigen MPEG-Standards geht, stehen deutsche Forschungsinstitute weltweit an Spitzenposition. Ein entsprechender Vorschlag des Fraunhofer IIS http://www.iis.fraunhofer.de für eine neue 3D-Audio-Technologie konnte sich nun in der MPEG-Standardisierungsorganisation nach einem umfassenden Auswahlverfahren gegen die globale Konkurrenz durchsetzen. Das in Deutschland erarbeitete Konzept bildet somit die Grundlage für die weitere Entwicklung des künftigen MPEG-H-3D-Audio-Standards. Dieser Erfolg zeigt einmal mehr eindrucksvoll, dass die MP3- und AAC-Entwickler in Erlangen zur Weltspitze in der Audiocodierung gehören.
"Ein MPEG-Standard ist das Ergebnis eines intensiven Verfahrens. Eine internationale Expertengruppe, die sich aus Vertretern von Unternehmen und Forschungseinrichtungen zusammensetzt, sucht nach der besten technischen Lösung für ein existierendes Problem", erklärt Jan Plogsties, Leiter der Gruppe Semantic Audio Rendering im Bereich Audio und Multimedia des Fraunhofer IIS. Im aktuellen Fall werde nach einem Standard gesucht, der es ermöglicht, 3D-Audioinhalte über Internet, Rundfunk und Fernsehen zu übertragen und beim Endkunden wiederzugeben. "Unsere Technologie hat die Experten in weltweit sechs Forschungslaboren überzeugt und wurde so zum Referenzentwurf für den künftigen MPEG-3D-Audio-Standard", so der Experte.
Der kommende MPEG-Standard wird die effiziente und flexible Übertragung und Wiedergabe von 3D-Audiosignalen ermöglichen. Davon sollen alle denkbaren künftigen Wiedergabesysteme profitieren: 3D-Heimkinosysteme mit Lautsprechern für 22.2-Kanal-Ton, 3D-Audiosysteme im Auto und sogar Tablet-Computer und Smartphones, mit denen über Kopfhörer 3D-Sound wiedergegeben werden kann. "Es gibt bisher keinen MPEG-Standard, der sich mit 3D-Audio-Technologien beschäftigt. Bislang ging es nur um Mono-, Stereo- und Surround-Wiedergabe", betont Plogsties.
"In Zukunft werden die Produzenten mehr Möglichkeiten haben, Tonmischungen so zu erstellen, dass beliebig viele Kanäle genutzt und Klänge aus verschiedenen Richtungen kommen können. Solche Tonmischungen werden momentan schon fürs Kino produziert und auch bei den Fernsehsendern getestet", so der Experte weiter. "Damit in Zukunft TV-Ausstrahlungen oder online gekaufte Filme auch diese Tonqualität nach Hause liefern können und jeder Hersteller diese Formate abspielen kann, wird der neue MPEG-Standard entwickelt."
Flexibler Lautsprecher gibt Musik über Gel wieder
Veröffentlicht am 10.09.2013 13:30:07
Wissenschaftler der Harvard University http://www.harvard.edu haben einen revolutionären neuen Ansatz für die Übertragung von Audiosignalen entwickelt. In einem Laborexperiment ist es ihnen gelungen, einen flexiblen Lautsprecher zu produzieren, der im Gegensatz zu seinen gegenwärtigen Pendants mit keinerlei elektronischen Bauteilen bestückt ist. Anstelle der Elektronik kommt vielmehr ein spezielles Gemisch aus mit Ionen angereichertem Salzwasser und einem Polymer namens "Hydrogel" zum Einsatz, das für das menschliche Auge beinahe unsichtbar ist und für eine entsprechende Schallverbreitung sorgt. In Zukunft könnten mit dieser Technologie beispielsweise Musik-spielende Smartphone-Screens oder besonders effektive Lärmschutzfenster realisiert werden.
"Für diese Entwicklung haben wir uns von der Natur inspirieren lassen, genauer gesagt von der Art und Weise, wie elektronische Signale im menschlichen Körper übertragen werden", erklärt der zuständige Projektleiter Zhigang Suo von der Harvard School of Engineering and Applied Sciences. Dort wird der Fluss von elektrisch geladenen Atomen, die auch als Ionen bezeichnet werden, dazu verwendet, um es Neuronen zu ermöglichen, Informationen auszutauschen oder etwa sogar den Herzschlag zu steuern. "Die aktuelle Arbeit stellt aber lediglich eine Machbarkeitsstudie dar", stellt Suo in Zusammenhang mit den ersten erfolgreichen Testläufen im Labor klar.
Um die Vision des ersten Elektronik-freien Lautsprechers Wirklichkeit werden zu lassen, hat der Forscher gemeinsam mit seinem Team zunächst ein flexibles, aber dennoch ausreichend stabiles Basismaterial produziert. Herausgekommen ist ein Hydrogel, das mit aufgelösten Ionen angereichert ist, die sich frei in der Substanz bewegen können. Der Lautsprecher besteht demnach aus zwei Schichten dieses speziellen Gels, die durch eine Lage durchsichtiges, isolierendes Gummimaterial voneinander getrennt werden. Beide Gelschichten sind mit Kupferelektroden verbunden.
Werden etwa von einem Computer elektrische Audiosignale ausgesandt, werden diese über die Elektroden in das Hydrogel weitergegeben, wo die Ionen in Schwingungen geraten. Dieser physikalische Prozess führt dazu, dass die isolierende Gummischicht in der Mitte mit spezifischen Frequenzen zu vibrieren beginnt, was letztendlich den Musikklang erzeugt.
Dass flexible Materialen mit besonderen Eigenschaften die Zukunft im Computer-, TV- und Handysektor entscheidend mitbestimmen könnten, haben bereits mehrere Entwicklungen im Bereich von biegsamen Displays gezeigt.
Trotz des frühen Prototypstadiums steckt auch im beschriebenen Fall des neuartigen Lautsprechers ein enormes Anwendungspotenzial. Geht es nach den Vorstellungen der Forscher, könnten dadurch in Zukunft Fernseher, Laptops oder Handy-Screens gebaut werden, die über die Hydrogel-Beschichtung Soundsignale ausgeben. Herkömmliche Lautsprecherboxen wären somit überflüssig. Auch die Nutzung für die Reduktion von Audiosignalen etwa bei Lärmschutzfenstern soll damit möglich sein.
Veröffentlicht am 10.09.2013 13:30:07
Wissenschaftler der Harvard University http://www.harvard.edu haben einen revolutionären neuen Ansatz für die Übertragung von Audiosignalen entwickelt. In einem Laborexperiment ist es ihnen gelungen, einen flexiblen Lautsprecher zu produzieren, der im Gegensatz zu seinen gegenwärtigen Pendants mit keinerlei elektronischen Bauteilen bestückt ist. Anstelle der Elektronik kommt vielmehr ein spezielles Gemisch aus mit Ionen angereichertem Salzwasser und einem Polymer namens "Hydrogel" zum Einsatz, das für das menschliche Auge beinahe unsichtbar ist und für eine entsprechende Schallverbreitung sorgt. In Zukunft könnten mit dieser Technologie beispielsweise Musik-spielende Smartphone-Screens oder besonders effektive Lärmschutzfenster realisiert werden.
"Für diese Entwicklung haben wir uns von der Natur inspirieren lassen, genauer gesagt von der Art und Weise, wie elektronische Signale im menschlichen Körper übertragen werden", erklärt der zuständige Projektleiter Zhigang Suo von der Harvard School of Engineering and Applied Sciences. Dort wird der Fluss von elektrisch geladenen Atomen, die auch als Ionen bezeichnet werden, dazu verwendet, um es Neuronen zu ermöglichen, Informationen auszutauschen oder etwa sogar den Herzschlag zu steuern. "Die aktuelle Arbeit stellt aber lediglich eine Machbarkeitsstudie dar", stellt Suo in Zusammenhang mit den ersten erfolgreichen Testläufen im Labor klar.
Um die Vision des ersten Elektronik-freien Lautsprechers Wirklichkeit werden zu lassen, hat der Forscher gemeinsam mit seinem Team zunächst ein flexibles, aber dennoch ausreichend stabiles Basismaterial produziert. Herausgekommen ist ein Hydrogel, das mit aufgelösten Ionen angereichert ist, die sich frei in der Substanz bewegen können. Der Lautsprecher besteht demnach aus zwei Schichten dieses speziellen Gels, die durch eine Lage durchsichtiges, isolierendes Gummimaterial voneinander getrennt werden. Beide Gelschichten sind mit Kupferelektroden verbunden.
Werden etwa von einem Computer elektrische Audiosignale ausgesandt, werden diese über die Elektroden in das Hydrogel weitergegeben, wo die Ionen in Schwingungen geraten. Dieser physikalische Prozess führt dazu, dass die isolierende Gummischicht in der Mitte mit spezifischen Frequenzen zu vibrieren beginnt, was letztendlich den Musikklang erzeugt.
Dass flexible Materialen mit besonderen Eigenschaften die Zukunft im Computer-, TV- und Handysektor entscheidend mitbestimmen könnten, haben bereits mehrere Entwicklungen im Bereich von biegsamen Displays gezeigt.
Trotz des frühen Prototypstadiums steckt auch im beschriebenen Fall des neuartigen Lautsprechers ein enormes Anwendungspotenzial. Geht es nach den Vorstellungen der Forscher, könnten dadurch in Zukunft Fernseher, Laptops oder Handy-Screens gebaut werden, die über die Hydrogel-Beschichtung Soundsignale ausgeben. Herkömmliche Lautsprecherboxen wären somit überflüssig. Auch die Nutzung für die Reduktion von Audiosignalen etwa bei Lärmschutzfenstern soll damit möglich sein.
Eye-Phone: Smartphone-Linse erkennt Augenleiden
Veröffentlicht am 10.09.2013 13:29:53
London/Nairobi - Die Software "Personal Eye Examination Kit" (PEEK) http://peekvision.org für Smartphones, mit deren Hilfe Augenleiden schnell diagnostiziert werden können, haben Forscher der London School of Hygiene and Tropical Medicine (LSHTM) entwickelt. Das Programm, auch "Eye-Phone" genannt, ist günstig, arbeitet schnell und kann Erkrankungen wie den Grünen Star, Grauer Star sowie Kurz- und Weitsichtigkeit erkennen.
Die LSHTM-Wissenschaftler forschen seit 2008 an der Hightech-Lösung, die sich nun in der letzten Entwicklungsphase befindet. Mit der Linse können auch Laien die Retina scannen. Die Software kann konventionelle Apparate, sogenannte Ophthalmoskope, zur Untersuchung des Auges ersetzen. Laut Forschungsleiter Andrew Bastawrous soll das Tool um nur wenige Hundert Euro auf den Markt kommen. Im Rahmen der "Nakuru Eye Disease Cohort Study" untersuchten die Wissenschaftler in Nairobi, Kenia, rund 5.000 Patienten mit einem Augenleiden.
Praktizierende Augenärzte hierzulande bezweifeln die Zuverlässigkeit der Lösung jedoch. "Ich kann mir nicht vorstellen, dass ein Smartphone Krankheiten diagnostizieren kann", gibt Georg Eckert vom Bundesverband der deutschen Augenärzte zu bedenken. Außerdem glaubt er nicht, dass ein Laie in der Lage ist, die gestellte Diagnose richtig zu beurteilen. "Dazu muss man schon Medizin studiert haben"...
Veröffentlicht am 10.09.2013 13:29:53
London/Nairobi - Die Software "Personal Eye Examination Kit" (PEEK) http://peekvision.org für Smartphones, mit deren Hilfe Augenleiden schnell diagnostiziert werden können, haben Forscher der London School of Hygiene and Tropical Medicine (LSHTM) entwickelt. Das Programm, auch "Eye-Phone" genannt, ist günstig, arbeitet schnell und kann Erkrankungen wie den Grünen Star, Grauer Star sowie Kurz- und Weitsichtigkeit erkennen.
Die LSHTM-Wissenschaftler forschen seit 2008 an der Hightech-Lösung, die sich nun in der letzten Entwicklungsphase befindet. Mit der Linse können auch Laien die Retina scannen. Die Software kann konventionelle Apparate, sogenannte Ophthalmoskope, zur Untersuchung des Auges ersetzen. Laut Forschungsleiter Andrew Bastawrous soll das Tool um nur wenige Hundert Euro auf den Markt kommen. Im Rahmen der "Nakuru Eye Disease Cohort Study" untersuchten die Wissenschaftler in Nairobi, Kenia, rund 5.000 Patienten mit einem Augenleiden.
Praktizierende Augenärzte hierzulande bezweifeln die Zuverlässigkeit der Lösung jedoch. "Ich kann mir nicht vorstellen, dass ein Smartphone Krankheiten diagnostizieren kann", gibt Georg Eckert vom Bundesverband der deutschen Augenärzte zu bedenken. Außerdem glaubt er nicht, dass ein Laie in der Lage ist, die gestellte Diagnose richtig zu beurteilen. "Dazu muss man schon Medizin studiert haben"...
Nissan präsentiert Smartwatch fürs Auto
Veröffentlicht am 10.09.2013 13:29:53
Nissan hat dieser Tage mit der "Nismo Watch" ein Smartwatch-Modell präsentiert, das speziell auf die Nutzung im Sportwagen ausgelegt ist. Es wird Fahrern nicht nur Informationen zur Fahrzeugperformance, sondern dank Biosensoren auch Daten wie die Herzrate des Fahrers anzeigen. Die Öffentlichkeit kann im Rahmen der Internationalen Automobil-Ausstellung erstmals einen Blick auf diese Smartwatch werfen.
Die tragbare Technologie soll helfen, Nissans Motorsport-Marke Nismo zugänglicher zu machen, so Gareth Dunsmore, Marketing Communications General Manager bei Nissan Europe. "Auf der Rennstrecke nutzt Nissan die neuesten bometrischen Trainingstechnologien, um die Leistung unserer Nissan-Nismo-Athleten zu verbessern." Die Smartwatch ist dazu gedacht, solche Technologien auch privaten Nismo-Sportwagenbesitzern zugänglich zu machen.
Die Nismo Watch kann sich dank Bluetooth Low Energy via Smartphone mit passenden Nismo-Modellen verbinden. Das Gerät erlaubt dem Fahrer dann, die Fahrzeugeffizienz anhand von Durschnittsgeschwindigkeit und Spritverbrauch zu verfolgen oder auf der Strecke auf Telematik- und Performance-Daten zuzugreifen. Gleichzeitig verfügt die Smartwatch über einen Pulsmesser, um Biodaten des Fahrers zu erfassen. Als Draufgabe dient die Nismo Watch auch noch als Werkzeug, mit dem der Nutzer seinen Einfluss auf sozialen Netzwerken wie Facebook, Twitter und Instagram verfolgen kann.
Dazu, wann sie wirklich auf den Markt kommt, hat der Konzern allerdings noch keine Angaben gemacht.
Veröffentlicht am 10.09.2013 13:29:53
Nissan hat dieser Tage mit der "Nismo Watch" ein Smartwatch-Modell präsentiert, das speziell auf die Nutzung im Sportwagen ausgelegt ist. Es wird Fahrern nicht nur Informationen zur Fahrzeugperformance, sondern dank Biosensoren auch Daten wie die Herzrate des Fahrers anzeigen. Die Öffentlichkeit kann im Rahmen der Internationalen Automobil-Ausstellung erstmals einen Blick auf diese Smartwatch werfen.
Die tragbare Technologie soll helfen, Nissans Motorsport-Marke Nismo zugänglicher zu machen, so Gareth Dunsmore, Marketing Communications General Manager bei Nissan Europe. "Auf der Rennstrecke nutzt Nissan die neuesten bometrischen Trainingstechnologien, um die Leistung unserer Nissan-Nismo-Athleten zu verbessern." Die Smartwatch ist dazu gedacht, solche Technologien auch privaten Nismo-Sportwagenbesitzern zugänglich zu machen.
Die Nismo Watch kann sich dank Bluetooth Low Energy via Smartphone mit passenden Nismo-Modellen verbinden. Das Gerät erlaubt dem Fahrer dann, die Fahrzeugeffizienz anhand von Durschnittsgeschwindigkeit und Spritverbrauch zu verfolgen oder auf der Strecke auf Telematik- und Performance-Daten zuzugreifen. Gleichzeitig verfügt die Smartwatch über einen Pulsmesser, um Biodaten des Fahrers zu erfassen. Als Draufgabe dient die Nismo Watch auch noch als Werkzeug, mit dem der Nutzer seinen Einfluss auf sozialen Netzwerken wie Facebook, Twitter und Instagram verfolgen kann.
Dazu, wann sie wirklich auf den Markt kommt, hat der Konzern allerdings noch keine Angaben gemacht.
Weltweit erster TV-Werbeblocker "Fernsehfee": Neue Funktionen zur IFA
Veröffentlicht am 10.09.2013 13:29:27
Mit der Fernsehfee bringt die TC Unterhaltungselektronik AG aus Koblenz den weltweit ersten TV-Werbeblocker zum Preis von 99 Eur (UVP) auf den Markt. Während Werbepausen schaltet das Gerät in andere TV-Kanäle und wieder zurück. Dabei verwendet die Fernsehfee einen völlig neuen Ansatz in der Kanalsortierung. Nicht mehr statisch , sondern dynamisch auf den Inhalt bezogen werden die Kanäle sortiert. Die jeweils besten TV-Sendungen stehen dabei ganz oben, TV-Junk ganz unten. Der User kann daher in Werbepausen mit hoher Wahrscheinlichkeit TOP-Sendungen entdecken, die er sonst versäumt hätte. Auch das Durchzappen durch hunderte von Satelliten-Kanälen wird so wesentlich effektiver, zumal der Zuschauer seine persönlichen TV-Präferenzen (Lieblingstitel, Genre, Schauspieler etc.) online oder in der Box einstellen kann (Personal-TV).
Aufnahmen erfolgen werbefrei, werden auf Wunsch auf MP4 verkleinert, via Google-Drive mobil genutzt oder mit Facebook-Freunden getauscht. Zudem können per Plugins alle Sendungen von über 90 TV-Sendern (Dt./US/UK/intl.) heruntergeladen werden (Cloud-Mediathek).
Die formschöne winzige Android-Box kommt ohne Lüfter aus, bietet 4 USB Schnittstellen, kann per Maus bedient werden und bietet alle Funktionen eines vollwertigen PCs (Internet, Browser, Mediaplayer, SMART-TV, Handy-Streaming auf TV, WLAN, LAN). Der integrierte DVB-S2 Sat-Tuner liefert volle HD-Auflösung und beste Bildqualität.
Die einzigartige TV-Werbeblockerfunktion wurde vom TV-Sender RTL jahrelang bekämpft und schließlich vom Bundesgerichtshof BGH zugelassen.
Veröffentlicht am 10.09.2013 13:29:27
Mit der Fernsehfee bringt die TC Unterhaltungselektronik AG aus Koblenz den weltweit ersten TV-Werbeblocker zum Preis von 99 Eur (UVP) auf den Markt. Während Werbepausen schaltet das Gerät in andere TV-Kanäle und wieder zurück. Dabei verwendet die Fernsehfee einen völlig neuen Ansatz in der Kanalsortierung. Nicht mehr statisch , sondern dynamisch auf den Inhalt bezogen werden die Kanäle sortiert. Die jeweils besten TV-Sendungen stehen dabei ganz oben, TV-Junk ganz unten. Der User kann daher in Werbepausen mit hoher Wahrscheinlichkeit TOP-Sendungen entdecken, die er sonst versäumt hätte. Auch das Durchzappen durch hunderte von Satelliten-Kanälen wird so wesentlich effektiver, zumal der Zuschauer seine persönlichen TV-Präferenzen (Lieblingstitel, Genre, Schauspieler etc.) online oder in der Box einstellen kann (Personal-TV).
Aufnahmen erfolgen werbefrei, werden auf Wunsch auf MP4 verkleinert, via Google-Drive mobil genutzt oder mit Facebook-Freunden getauscht. Zudem können per Plugins alle Sendungen von über 90 TV-Sendern (Dt./US/UK/intl.) heruntergeladen werden (Cloud-Mediathek).
Die formschöne winzige Android-Box kommt ohne Lüfter aus, bietet 4 USB Schnittstellen, kann per Maus bedient werden und bietet alle Funktionen eines vollwertigen PCs (Internet, Browser, Mediaplayer, SMART-TV, Handy-Streaming auf TV, WLAN, LAN). Der integrierte DVB-S2 Sat-Tuner liefert volle HD-Auflösung und beste Bildqualität.
Die einzigartige TV-Werbeblockerfunktion wurde vom TV-Sender RTL jahrelang bekämpft und schließlich vom Bundesgerichtshof BGH zugelassen.
Dünnstes Keyboard der Welt entwickelt
Veröffentlicht am 06.09.2013 11:13:33
Cambridge/München - Die dünnste Tastatur der Welt hat ein Team der Firma CSR http://csr.com entwickelt. Das Eingabegerät soll nur knapp einen halben Millimeter dick sein. Auf der Internationalen Funkausstellung Berlin wird das rollbare Gerät, das auch über einen Touchscreen verfügt, präsentiert.
Die neue Tastatur soll laut dem Entwickler so flexibel sein, dass sie sich problemlos aufrollen lässt - bis zu einem Durchmesser von etwa 2,5 Zentimetern. Außerdem wird das Keyboard über Bluetooth Smart verfügen. Vor allem als leichtes, flexibles Eingabegerät für Tablet-PCs soll sich die rollbare Tastatur bewähren. Über das aktuell produzierte Gerät sagt Paul Williamson, Direktor der Sparte Niedrig-Energie und Wireless bei CSR im Gespräch: "Es ist ein funktionierender Prototyp und eher ein Blick in die Zukunft als etwas, was noch dieses Jahr in den Verkauf kommt."
CSR verwendet bei der Herstellung die sogenannte Catalytik-Inkjet-Technologie. Dabei werden stromleitende Partikel mit einer Trägerlösung versetzt, die wie Tinte in einem Drucker auf ein Medium aufgebracht werden kann. Der Stromkreis wird also aufgedruckt. Den Vorteil der neuen Technik sieht Williamson vor allem in der Flexibilität. "Wir werden viele verschiedene Formen und Größen sehen. Manche so klein wie ein iPad Mini, aber auch größere, mit einer steiferen Form für Desptop-PCs", wie er in Medienberichten zitiert wird. Farbig, transparent oder wellenförmig soll die Tastatur zum Beispiel auf einem Stück Leder angebracht werden können.
Die Tastatur soll Herstellerangaben zufolge über einen Touchscreen verfügen. "Man könnte beispielsweise auf einem Stück Papier, das auf dem Touchscreen, liegt Notizen machen. Sie würden automatisch mit dem PC synchronisiert werden", wie Williamson einen der Vorteile beschreibt. Fraglich seien laut Martin Grunwald von der Uni Leipzig,
die haptischen Eigenschaften der ultra-dünnen Tastatur. "Ob der Nutzer sich stärker an die Technik anpassen muss als ihm lieb ist, ist ja immer die Frage. Mikroelektronisch ist die Technik heute kein Problem mehr", erklärt Grunwald.
Das Eingabegerät wird etwa 60 bis 70 Dollar (rund 45 bis 55 Euro) kosten. Die Stromversorgung erfolgt durch einen Lithium-Polymer-Akku. "Dieser kann über einen Micro-USB-Anschluss wieder aufgeladen werden", erklärt Williamson im Interview. Das Produkt-Portfolio wird laut Williamson von 1,8-Volt-Geräten bis hin zu 4,4-Volt-Tastaturen reichen. Bis die Tastatur zu kaufen ist, sollen Medienberichten zufolge aber noch weitere zwölf Monate vergehen.
Veröffentlicht am 06.09.2013 11:13:33
Cambridge/München - Die dünnste Tastatur der Welt hat ein Team der Firma CSR http://csr.com entwickelt. Das Eingabegerät soll nur knapp einen halben Millimeter dick sein. Auf der Internationalen Funkausstellung Berlin wird das rollbare Gerät, das auch über einen Touchscreen verfügt, präsentiert.
Die neue Tastatur soll laut dem Entwickler so flexibel sein, dass sie sich problemlos aufrollen lässt - bis zu einem Durchmesser von etwa 2,5 Zentimetern. Außerdem wird das Keyboard über Bluetooth Smart verfügen. Vor allem als leichtes, flexibles Eingabegerät für Tablet-PCs soll sich die rollbare Tastatur bewähren. Über das aktuell produzierte Gerät sagt Paul Williamson, Direktor der Sparte Niedrig-Energie und Wireless bei CSR im Gespräch: "Es ist ein funktionierender Prototyp und eher ein Blick in die Zukunft als etwas, was noch dieses Jahr in den Verkauf kommt."
CSR verwendet bei der Herstellung die sogenannte Catalytik-Inkjet-Technologie. Dabei werden stromleitende Partikel mit einer Trägerlösung versetzt, die wie Tinte in einem Drucker auf ein Medium aufgebracht werden kann. Der Stromkreis wird also aufgedruckt. Den Vorteil der neuen Technik sieht Williamson vor allem in der Flexibilität. "Wir werden viele verschiedene Formen und Größen sehen. Manche so klein wie ein iPad Mini, aber auch größere, mit einer steiferen Form für Desptop-PCs", wie er in Medienberichten zitiert wird. Farbig, transparent oder wellenförmig soll die Tastatur zum Beispiel auf einem Stück Leder angebracht werden können.
Die Tastatur soll Herstellerangaben zufolge über einen Touchscreen verfügen. "Man könnte beispielsweise auf einem Stück Papier, das auf dem Touchscreen, liegt Notizen machen. Sie würden automatisch mit dem PC synchronisiert werden", wie Williamson einen der Vorteile beschreibt. Fraglich seien laut Martin Grunwald von der Uni Leipzig,
die haptischen Eigenschaften der ultra-dünnen Tastatur. "Ob der Nutzer sich stärker an die Technik anpassen muss als ihm lieb ist, ist ja immer die Frage. Mikroelektronisch ist die Technik heute kein Problem mehr", erklärt Grunwald.
Das Eingabegerät wird etwa 60 bis 70 Dollar (rund 45 bis 55 Euro) kosten. Die Stromversorgung erfolgt durch einen Lithium-Polymer-Akku. "Dieser kann über einen Micro-USB-Anschluss wieder aufgeladen werden", erklärt Williamson im Interview. Das Produkt-Portfolio wird laut Williamson von 1,8-Volt-Geräten bis hin zu 4,4-Volt-Tastaturen reichen. Bis die Tastatur zu kaufen ist, sollen Medienberichten zufolge aber noch weitere zwölf Monate vergehen.
IFA: LG zeigt OLED-Fernseher im Gemälde-Stil
Veröffentlicht am 03.09.2013 00:11:18
Seoul/Berlin - Wenn diesen Freitag die IFA Berlin ihre Pforten öffnet, bietet sie Besuchern unter anderem einen Blick auf die aktuellsten TV-Trends. Der koreanische Hersteller LG wird dabei eine Weltneuheit präsentieren: Den ersten OLED-Fernseher im 55-Zoll-Format, der insbesondere zur Wandmontage geeignet ist. Das Modell 55EA8800 soll dabei durch einen ungewöhnlichen Look punkten - der 55-Zöller "Gallery OLED TV" erinnert nämlich an ein Gemälde und bietet passend dazu einen speziellen Modus, in dem er Werke großer Meister hochaufgelöst wiedergibt.
Schon auf der CES zu Jahresbeginn war klar, dass TV-Hersteller engültig das OLED-Zeitalter einläuten - Samsung und LG haben dort praktisch zeitgleich die ersten Geräte mit gekrümmtem Display gezeigt. Anlässlich der IFA besinnt sich LG nun wieder stärker auf das "flach" in Flachbildschirm und präsentiert das erste OLED-Gerät im 55-Zoll-Format, das somit wirklich für die im LED-Zeitalter gängig gewordene Anbringung an der Wand geeignet ist. Von der Masse abheben soll sich das Gerät dabei insbesondere durch seinen Look.
Der Gallery OLED TV wirkt auf den ersten Blick wie ein Gemälde mit Rahmen, insbesondere, wenn der Fernseher im "Gallery Mode" läuft. Denn dieser dient der Anzeige von hochaufgelösten digitalen Bildern der Werke bekannter Künstler von Vincent van Gogh bis Paul Gauguin. LG zufolge bietet sich dieser Modus aber auch für Diashows beispielsweise von Familien- oder Urlaubsfotos an. "Dieses wunderschön designte und gebaute Produkt ist ein gutes Beispiel für unsere Fähigkeit, über das Gewöhnliche hinaus zu denken und Kunden ein differenziertes Erlebnis zu bieten", meint Havis Kwon, CEO der LG Electronics Home Entertainment Company.
Um bei dem Gemälde-Fernseher auch ein möglichst gutes Klangerlebnis zu bieten, setzt LG als Teil eines 2.2-Soundsystems auf spezielle Canvas Speaker. Diese sind in Form der vermeintlichen Blende in den scheinbaren Bilderrahmen eingearbeitet und somit Teil des Gemälde-Looks. In Sachen Bildqualität setzen die Koreaner bei der IFA-Neuheit auf Bewährtes. Das Gerät nutzt jene WRGB-Technologie mit einem vierten, weißen Subpixel in jedem Bildpunkt, die auch schon beim Modell 55EA9809 zum Einsatz kommt - jener gekrümmte OLED-Fernseher aus dem Hause LG, der seit wenigen Tagen für 9.000 Euro im deutschen Handel erhältlich ist.
Veröffentlicht am 03.09.2013 00:11:18
Seoul/Berlin - Wenn diesen Freitag die IFA Berlin ihre Pforten öffnet, bietet sie Besuchern unter anderem einen Blick auf die aktuellsten TV-Trends. Der koreanische Hersteller LG wird dabei eine Weltneuheit präsentieren: Den ersten OLED-Fernseher im 55-Zoll-Format, der insbesondere zur Wandmontage geeignet ist. Das Modell 55EA8800 soll dabei durch einen ungewöhnlichen Look punkten - der 55-Zöller "Gallery OLED TV" erinnert nämlich an ein Gemälde und bietet passend dazu einen speziellen Modus, in dem er Werke großer Meister hochaufgelöst wiedergibt.
Schon auf der CES zu Jahresbeginn war klar, dass TV-Hersteller engültig das OLED-Zeitalter einläuten - Samsung und LG haben dort praktisch zeitgleich die ersten Geräte mit gekrümmtem Display gezeigt. Anlässlich der IFA besinnt sich LG nun wieder stärker auf das "flach" in Flachbildschirm und präsentiert das erste OLED-Gerät im 55-Zoll-Format, das somit wirklich für die im LED-Zeitalter gängig gewordene Anbringung an der Wand geeignet ist. Von der Masse abheben soll sich das Gerät dabei insbesondere durch seinen Look.
Der Gallery OLED TV wirkt auf den ersten Blick wie ein Gemälde mit Rahmen, insbesondere, wenn der Fernseher im "Gallery Mode" läuft. Denn dieser dient der Anzeige von hochaufgelösten digitalen Bildern der Werke bekannter Künstler von Vincent van Gogh bis Paul Gauguin. LG zufolge bietet sich dieser Modus aber auch für Diashows beispielsweise von Familien- oder Urlaubsfotos an. "Dieses wunderschön designte und gebaute Produkt ist ein gutes Beispiel für unsere Fähigkeit, über das Gewöhnliche hinaus zu denken und Kunden ein differenziertes Erlebnis zu bieten", meint Havis Kwon, CEO der LG Electronics Home Entertainment Company.
Um bei dem Gemälde-Fernseher auch ein möglichst gutes Klangerlebnis zu bieten, setzt LG als Teil eines 2.2-Soundsystems auf spezielle Canvas Speaker. Diese sind in Form der vermeintlichen Blende in den scheinbaren Bilderrahmen eingearbeitet und somit Teil des Gemälde-Looks. In Sachen Bildqualität setzen die Koreaner bei der IFA-Neuheit auf Bewährtes. Das Gerät nutzt jene WRGB-Technologie mit einem vierten, weißen Subpixel in jedem Bildpunkt, die auch schon beim Modell 55EA9809 zum Einsatz kommt - jener gekrümmte OLED-Fernseher aus dem Hause LG, der seit wenigen Tagen für 9.000 Euro im deutschen Handel erhältlich ist.
"ladibird": Profi-Kamera für das iPhone vorgestellt
Veröffentlicht am 03.09.2013 00:11:18
Singapur - Ein Team aus Singapur hat mit dem "ladibird" http://ladibird.com einen Aufsatz für das iPhone 5 angekündigt, der Fotos mit der Qualität einer DSLR-Kamera (Digital-Spiegelreflex) verspricht. Dafür setzt das Zubehör nicht einfach auf eine Zusatzoptik, vielmehr handelt es sich um eine komplette Kamera mit einem Bildsensor. Das Gerät soll Kompaktkameras ausstechen und gegenüber echten DSLRs damit punkten, dass das Teilen von Fotos via App viel leichter ist.
Eine Crowdfunding-Kampagne auf Indiegogo http://igg.me/at/ladibird hat ihr Finanzierungsziel fast erreicht, im Juni 2014 sollen erste Unterstützer ihren ladibird bekommen. Derzeit können sich Interessenten den Aufsatz für 167 Dollar sichern. Wenn er Ende 2014 in den Handel kommt, soll er auf über 300 Dollar kommen. Bis dahin soll es auch Versionen für iPhone 5S und 5C geben, die ja nach aktuellem Gerüchte-Stand demnächst offiziell enthüllt werden.
Statt die interne Kamera des iPhones zu ergänzen, ersetzt ladibird diese effektiv komplett. Denn der Aufsatz hat nicht nur eine eigene 50mm-Objektivlinse mit f/1.8-Blende, sondern auch einen integrierten CMOS-Bildsensor. Dieser ist laut den Machern 7,5 Mal so groß wie jener des Smartphones und damit auch fast viermal so groß wie bei gängigen Kompaktkameras. Diese Kombination soll eine Fotoqualität ermöglichen, die mit DSLR-Profikameras mithalten kann - obwohl die Bedienung nur mittels Auslöserknopf oder auf Wunsch Touchscreen erfolgt.
Gegenüber echten Fotoapparaten soll ladibird auch dadurch punkten, dass man Schnappschüsse leicht auf Instagram, Facebook oder anderen Online-Plattformen teilen kann. Freilich relativiert sich dieser Vorteil dadurch, dass klassische Kamerahersteller wie Nikon oder Canon speziell bei Systemkameras zunehmend WLAN oder sogar 3G integrieren. Zumindest in der jetzigen Version bietet ladibird auch keinen Blitz - doch würden es viele Nutzer ohnehin bevorzugen, Fotos ohne Biltz zu schießen, so die Tüftler.
Es herrscht offenbar reges Interesse an Zubehör, das breitere Fotografie-Möglichkeiten für Smartphones verspricht - jedenfalls häufen sich in den vergangenen Monaten entsprechende Crowdfunding-Kampagnen.
Veröffentlicht am 03.09.2013 00:11:18
Singapur - Ein Team aus Singapur hat mit dem "ladibird" http://ladibird.com einen Aufsatz für das iPhone 5 angekündigt, der Fotos mit der Qualität einer DSLR-Kamera (Digital-Spiegelreflex) verspricht. Dafür setzt das Zubehör nicht einfach auf eine Zusatzoptik, vielmehr handelt es sich um eine komplette Kamera mit einem Bildsensor. Das Gerät soll Kompaktkameras ausstechen und gegenüber echten DSLRs damit punkten, dass das Teilen von Fotos via App viel leichter ist.
Eine Crowdfunding-Kampagne auf Indiegogo http://igg.me/at/ladibird hat ihr Finanzierungsziel fast erreicht, im Juni 2014 sollen erste Unterstützer ihren ladibird bekommen. Derzeit können sich Interessenten den Aufsatz für 167 Dollar sichern. Wenn er Ende 2014 in den Handel kommt, soll er auf über 300 Dollar kommen. Bis dahin soll es auch Versionen für iPhone 5S und 5C geben, die ja nach aktuellem Gerüchte-Stand demnächst offiziell enthüllt werden.
Statt die interne Kamera des iPhones zu ergänzen, ersetzt ladibird diese effektiv komplett. Denn der Aufsatz hat nicht nur eine eigene 50mm-Objektivlinse mit f/1.8-Blende, sondern auch einen integrierten CMOS-Bildsensor. Dieser ist laut den Machern 7,5 Mal so groß wie jener des Smartphones und damit auch fast viermal so groß wie bei gängigen Kompaktkameras. Diese Kombination soll eine Fotoqualität ermöglichen, die mit DSLR-Profikameras mithalten kann - obwohl die Bedienung nur mittels Auslöserknopf oder auf Wunsch Touchscreen erfolgt.
Gegenüber echten Fotoapparaten soll ladibird auch dadurch punkten, dass man Schnappschüsse leicht auf Instagram, Facebook oder anderen Online-Plattformen teilen kann. Freilich relativiert sich dieser Vorteil dadurch, dass klassische Kamerahersteller wie Nikon oder Canon speziell bei Systemkameras zunehmend WLAN oder sogar 3G integrieren. Zumindest in der jetzigen Version bietet ladibird auch keinen Blitz - doch würden es viele Nutzer ohnehin bevorzugen, Fotos ohne Biltz zu schießen, so die Tüftler.
Es herrscht offenbar reges Interesse an Zubehör, das breitere Fotografie-Möglichkeiten für Smartphones verspricht - jedenfalls häufen sich in den vergangenen Monaten entsprechende Crowdfunding-Kampagnen.
"Strands": Roboter für Wach- und Pflegedienst
Veröffentlicht am 03.09.2013 00:11:18
Forscher arbeiten derzeit im Rahmen des Projektes "Strands" http://github.com/strands-project an einer speziellen Software, die es ermöglichen soll, dass Roboter künftig als Wach- und Pflegepersonal eingesetzt werden können. Das 7,2 Mio. Pfund (rund 8,4 Mio. Euro) teure Roboterprojekt wird von der University of Birmingham geleitet und beinhaltet die Entwicklung von mobilen Maschinen, die fähig sind, aus ihrer Erfahrung zu lernen.
Veröffentlicht am 03.09.2013 00:11:18
Forscher arbeiten derzeit im Rahmen des Projektes "Strands" http://github.com/strands-project an einer speziellen Software, die es ermöglichen soll, dass Roboter künftig als Wach- und Pflegepersonal eingesetzt werden können. Das 7,2 Mio. Pfund (rund 8,4 Mio. Euro) teure Roboterprojekt wird von der University of Birmingham geleitet und beinhaltet die Entwicklung von mobilen Maschinen, die fähig sind, aus ihrer Erfahrung zu lernen.
Cyber-Security: ESET geht aktiv auf Endkunden zu
Veröffentlicht am 29.08.2013 18:41:37
Der Antiviren-Hersteller und Spezialist für Internetsecurity ESET sucht zunehmend die Nähe zu den Endverbrauchern und lanciert zu diesem Zweck zwei neue Produkte. Neben der upgedateten Version 7 seiner All-in-One-Lösung will das Unternehmen auch mit einem Multi-Device-Security-Paket den privaten Anwender für sich gewinnen. Beide Produkte sollen im September erhältlich sein.
Im Gespräch unterstreicht ESET-Sprecher Michael Klatte vor allem die Benutzerfreundlichkeit der beiden Security-Lösungen. Greifbar wird dies anhand der "Multi-Device-Security", womit User mit nur einem Key bis zu fünf Endgeräte absichern können - unabhängig vom Betriebssystem. Dabei können Geräte problemlos in Eigenregie deaktiviert und andere aktiviert werden, wie Ralf Tegethoff, B2C-Vertriebsdirektor für die EMEA-Region erklärt. In dem Paket berücksichtigt sind Windows, Mac, Linux und Android.
Klatte betont zudem, dass jeder Kunde ein Anrecht auf ein Upgrade einer neuen Version hat, falls diese innerhalb des jeweiligen Lizenzzeitraums gelauncht wird.
Die angekündigte neue Version "ESET NOD32 Antivirus 7" verfügt neben einer Reihe bewährter Security-Tools wie etwa Antispyware, Anti-Phising oder Cloud-powered Scanning auch über innovative Elemente. Dazu zählen unter anderem ein "Advanced Memory Scanner", ein "Specialized Cleaner" sowie ein "Exploit Blocker". Letzterer ist in der Lage, Malware innerhalb von E-Mail-Clients, MS-Office-Komponenten oder in einem PDF-Reader ausfindig zu machen.
Neben den Gefahren im klassischen Internet will ESET seine Kunden auch vor jenen im interaktiven Web 2.0 schützen. Gelingen soll das mit dem jüngst vorgestellten "Social Media Scanner". Die Gratis-App geht im Facebook-Umfeld des jeweiligen Users auf die Jagd nach schädlicher Malware und hinterlässt sogar Warnungen in Form von Kommentaren unter potenziell gefährliche Postings. Dadurch sollen auch andere User auf die Gefahr aufmerksam gemacht werden. Auch auf Twitter kann man seit kurzem auf die Unterstützung von ESET zurückgreifen.
Veröffentlicht am 29.08.2013 18:41:37
Der Antiviren-Hersteller und Spezialist für Internetsecurity ESET sucht zunehmend die Nähe zu den Endverbrauchern und lanciert zu diesem Zweck zwei neue Produkte. Neben der upgedateten Version 7 seiner All-in-One-Lösung will das Unternehmen auch mit einem Multi-Device-Security-Paket den privaten Anwender für sich gewinnen. Beide Produkte sollen im September erhältlich sein.
Im Gespräch unterstreicht ESET-Sprecher Michael Klatte vor allem die Benutzerfreundlichkeit der beiden Security-Lösungen. Greifbar wird dies anhand der "Multi-Device-Security", womit User mit nur einem Key bis zu fünf Endgeräte absichern können - unabhängig vom Betriebssystem. Dabei können Geräte problemlos in Eigenregie deaktiviert und andere aktiviert werden, wie Ralf Tegethoff, B2C-Vertriebsdirektor für die EMEA-Region erklärt. In dem Paket berücksichtigt sind Windows, Mac, Linux und Android.
Klatte betont zudem, dass jeder Kunde ein Anrecht auf ein Upgrade einer neuen Version hat, falls diese innerhalb des jeweiligen Lizenzzeitraums gelauncht wird.
Die angekündigte neue Version "ESET NOD32 Antivirus 7" verfügt neben einer Reihe bewährter Security-Tools wie etwa Antispyware, Anti-Phising oder Cloud-powered Scanning auch über innovative Elemente. Dazu zählen unter anderem ein "Advanced Memory Scanner", ein "Specialized Cleaner" sowie ein "Exploit Blocker". Letzterer ist in der Lage, Malware innerhalb von E-Mail-Clients, MS-Office-Komponenten oder in einem PDF-Reader ausfindig zu machen.
Neben den Gefahren im klassischen Internet will ESET seine Kunden auch vor jenen im interaktiven Web 2.0 schützen. Gelingen soll das mit dem jüngst vorgestellten "Social Media Scanner". Die Gratis-App geht im Facebook-Umfeld des jeweiligen Users auf die Jagd nach schädlicher Malware und hinterlässt sogar Warnungen in Form von Kommentaren unter potenziell gefährliche Postings. Dadurch sollen auch andere User auf die Gefahr aufmerksam gemacht werden. Auch auf Twitter kann man seit kurzem auf die Unterstützung von ESET zurückgreifen.
Video-Chat: Software simuliert Blickkontakt
Veröffentlicht am 29.08.2013 18:41:26
Zürich - Dank einer neuen Software-Lösung ist es möglich, richtigen Blickkontakt während eines Video-Chats zu simulieren. Die Technologie ist an den Labors für Computergraphik der ETH Zürich http://graphics.ethz.ch entstanden und soll bei dem bis dato fehlenden Augenkontakt endgültig Abhilfe schaffen. Den Wissenschaftern zufolge resultiert das Problem daraus, dass die Gesprächsteilnehmer dazu neigen, auf das Video im Bildschirm anstatt direkt in die Kamera zu blicken.
Die Software ist unter der Leitung von Markus Gross, Professor für Informatik an der ETH Zürich und Claudia Kuster, Doktorandin am Labor für Computergraphik, entwickelt worden. "Wir möchten Videokonferenzen einem realen Treffen so ähnlich wie möglich machen", erklärt Kuster. Als Voraussetzung benötigt man nur Kinect, ein neues Kamerasystem, welches gleichzeitig Farb- und Tiefeninformation sammelt. Diese Software nutzt zusätzlich ein Programm, welches in der Lage ist, die Gesichter im Video in Echtzeit zu erkennen.
Die gewonnenen Bildinformationen werden von der Software weiterverarbeitet, damit das Gesicht vom Hintergrund gelöst sowie gedreht werden kann. Anschließend wird das gedrehte Bild an einer Stelle, die ähnliche Farbwerte aufweist, wieder eingefügt. Um das Fehlen von Bildbereichen und die Entstehung von Löchern zu verhindern, werden bei diesem Vorgang nur die Gesichter und nicht der Hintergrund bearbeitet. "Die Software lässt sich in wenigen Schritten auf den Benutzer einstellen und läuft sehr robust", resümiert Kuster.
Das einzige Problemfeld, welches dieser innvotive Lösungsansatz noch in sich birgt, ist, dass die Gesichtserkennung der aktuellen Software-Version bei Brillenträgern nicht funktioniert.
Veröffentlicht am 29.08.2013 18:41:26
Zürich - Dank einer neuen Software-Lösung ist es möglich, richtigen Blickkontakt während eines Video-Chats zu simulieren. Die Technologie ist an den Labors für Computergraphik der ETH Zürich http://graphics.ethz.ch entstanden und soll bei dem bis dato fehlenden Augenkontakt endgültig Abhilfe schaffen. Den Wissenschaftern zufolge resultiert das Problem daraus, dass die Gesprächsteilnehmer dazu neigen, auf das Video im Bildschirm anstatt direkt in die Kamera zu blicken.
Die Software ist unter der Leitung von Markus Gross, Professor für Informatik an der ETH Zürich und Claudia Kuster, Doktorandin am Labor für Computergraphik, entwickelt worden. "Wir möchten Videokonferenzen einem realen Treffen so ähnlich wie möglich machen", erklärt Kuster. Als Voraussetzung benötigt man nur Kinect, ein neues Kamerasystem, welches gleichzeitig Farb- und Tiefeninformation sammelt. Diese Software nutzt zusätzlich ein Programm, welches in der Lage ist, die Gesichter im Video in Echtzeit zu erkennen.
Die gewonnenen Bildinformationen werden von der Software weiterverarbeitet, damit das Gesicht vom Hintergrund gelöst sowie gedreht werden kann. Anschließend wird das gedrehte Bild an einer Stelle, die ähnliche Farbwerte aufweist, wieder eingefügt. Um das Fehlen von Bildbereichen und die Entstehung von Löchern zu verhindern, werden bei diesem Vorgang nur die Gesichter und nicht der Hintergrund bearbeitet. "Die Software lässt sich in wenigen Schritten auf den Benutzer einstellen und läuft sehr robust", resümiert Kuster.
Das einzige Problemfeld, welches dieser innvotive Lösungsansatz noch in sich birgt, ist, dass die Gesichtserkennung der aktuellen Software-Version bei Brillenträgern nicht funktioniert.
Londoner Museum lockt mit VR-Ausstellung
Veröffentlicht am 29.08.2013 18:41:09
London - Das Science Museum in London http://www.sciencemuseum.org.uk hat eine eigentlich bereits im Vorjahr beendete Ausstellung der hauseigenen Schifffahrtsabteilung mithilfe eines innovativen Virtual-Reality-Konzepts (VR) wieder zu neuem Leben erweckt. Realisiert werden konnte das ambitionierte Unterfangen mithilfe einer speziellen Laser-Scanning-Technologie namens "Lidar" (Light detection and ranging), die ursprünglich zur Erforschung von Wolken entwickelt worden ist. Damit wurden insgesamt 1.800 Exponate genauestens gescannt und digital gespeichert. Auch die Ausstellungsräumlichkeiten wurden mittels 275 Bildern erfasst. Insgesamt entstand so eine Datenmenge von 256 Gigabyte, durch die es nun möglich sein soll, Besucher auf eine virtuelle Tour durch eine vergangene Ausstellung zu schicken.
"Unsere Schifffahrtsausstellung wurde bereits im Jahr 1963 eröffnet und war der Ort, an dem das Museum seine maritime Sammlung präsentierte", erläutert David Rooney, Kurator zuständig für den Transport, auf der Museums-Webseite. Im Vorjahr sei dieser Teil der Galerie allerdings geschlossen worden, um der im September 2014 startenden Nachfolgeausstellung zum "Informationszeitalter" Platz zu machen. Durch das aktuelle VR-Projekt könne man die Ausstellung aber quasi "wieder auferstehen lassen". "Für den passenden visuellen Eindruck sorgen rund zwei Mrd. Laser-Vermessungsdaten, die fein säuberlich zusammengesetzt wurden, um ein akkurates 3D-Abbild der gesamten Ausstellung zu schaffen", so Rooney.
Veröffentlicht am 29.08.2013 18:41:09
London - Das Science Museum in London http://www.sciencemuseum.org.uk hat eine eigentlich bereits im Vorjahr beendete Ausstellung der hauseigenen Schifffahrtsabteilung mithilfe eines innovativen Virtual-Reality-Konzepts (VR) wieder zu neuem Leben erweckt. Realisiert werden konnte das ambitionierte Unterfangen mithilfe einer speziellen Laser-Scanning-Technologie namens "Lidar" (Light detection and ranging), die ursprünglich zur Erforschung von Wolken entwickelt worden ist. Damit wurden insgesamt 1.800 Exponate genauestens gescannt und digital gespeichert. Auch die Ausstellungsräumlichkeiten wurden mittels 275 Bildern erfasst. Insgesamt entstand so eine Datenmenge von 256 Gigabyte, durch die es nun möglich sein soll, Besucher auf eine virtuelle Tour durch eine vergangene Ausstellung zu schicken.
"Unsere Schifffahrtsausstellung wurde bereits im Jahr 1963 eröffnet und war der Ort, an dem das Museum seine maritime Sammlung präsentierte", erläutert David Rooney, Kurator zuständig für den Transport, auf der Museums-Webseite. Im Vorjahr sei dieser Teil der Galerie allerdings geschlossen worden, um der im September 2014 startenden Nachfolgeausstellung zum "Informationszeitalter" Platz zu machen. Durch das aktuelle VR-Projekt könne man die Ausstellung aber quasi "wieder auferstehen lassen". "Für den passenden visuellen Eindruck sorgen rund zwei Mrd. Laser-Vermessungsdaten, die fein säuberlich zusammengesetzt wurden, um ein akkurates 3D-Abbild der gesamten Ausstellung zu schaffen", so Rooney.
Forscher steuert Finger von Kollegen über das Web
Veröffentlicht am 29.08.2013 18:41:09
Washington - Forschern der University of Washington ist es eigenen Aussagen zufolge erstmals gelungen, die Bewegungen einer Testperson über das Internet vom Gehirn eines anderen Menschen aus zu steuern. Mithilfe des eigens für diese Zwecke entwickelten "human-to-human brain interface" konnte demnach ein Wissenschaftler einen Kollegen am anderen Ende des Universitätscampus dazu bringen, mit einem Finger eine bestimmte Keyboard-Taste zu drücken. Möglich wird dies durch ein ausgeklügeltes System aus Elektroenzephalografie (EEG) und transkranieller Magnetstimulation (TMS), die die beiden Gehirne der Probanden quasi miteinander "vernetzt". Bislang können auf diese Weise allerdings nur sehr einfache Informationen ausgetauscht werden.
"Das Internet war einmal eine Möglichkeit, um Computer zu vernetzen. Jetzt funktioniert das auch mit menschlichen Gehirnen", erklären die beiden Projektleiter Andrea Stocco und Rajeh Rao von der University of Washington. "Unser Ziel ist es, das gesamte Wissen eines Gehirns zu nehmen und es direkt von einem Hirn in ein anderes zu transferieren", fassen sie ihre längerfristige Vision zusammen. Bislang habe man aber nur den ersten Schritt geschafft. "Es war sowohl aufregend als auch unheimlich zu sehen, wie eine gedachte Handlung meines Gehirns in ein anderes übertragen und dort in eine tatsächliche Aktion umgesetzt wird", beschreiben die Froscher das erfolgreiche Selbstexperiment.
Um der Öffentlichkeit zu beweisen, dass ihr human-to-human brain interface tatsächlich funktioniert, haben die beiden Wissenschaftler ihren innovativen Versuch per YouTube-Video festgehalten.
Zu sehen: http://www.youtube.com/watch?v=QJmvXF4z1xo
Veröffentlicht am 29.08.2013 18:41:09
Washington - Forschern der University of Washington ist es eigenen Aussagen zufolge erstmals gelungen, die Bewegungen einer Testperson über das Internet vom Gehirn eines anderen Menschen aus zu steuern. Mithilfe des eigens für diese Zwecke entwickelten "human-to-human brain interface" konnte demnach ein Wissenschaftler einen Kollegen am anderen Ende des Universitätscampus dazu bringen, mit einem Finger eine bestimmte Keyboard-Taste zu drücken. Möglich wird dies durch ein ausgeklügeltes System aus Elektroenzephalografie (EEG) und transkranieller Magnetstimulation (TMS), die die beiden Gehirne der Probanden quasi miteinander "vernetzt". Bislang können auf diese Weise allerdings nur sehr einfache Informationen ausgetauscht werden.
"Das Internet war einmal eine Möglichkeit, um Computer zu vernetzen. Jetzt funktioniert das auch mit menschlichen Gehirnen", erklären die beiden Projektleiter Andrea Stocco und Rajeh Rao von der University of Washington. "Unser Ziel ist es, das gesamte Wissen eines Gehirns zu nehmen und es direkt von einem Hirn in ein anderes zu transferieren", fassen sie ihre längerfristige Vision zusammen. Bislang habe man aber nur den ersten Schritt geschafft. "Es war sowohl aufregend als auch unheimlich zu sehen, wie eine gedachte Handlung meines Gehirns in ein anderes übertragen und dort in eine tatsächliche Aktion umgesetzt wird", beschreiben die Froscher das erfolgreiche Selbstexperiment.
Um der Öffentlichkeit zu beweisen, dass ihr human-to-human brain interface tatsächlich funktioniert, haben die beiden Wissenschaftler ihren innovativen Versuch per YouTube-Video festgehalten.
Zu sehen: http://www.youtube.com/watch?v=QJmvXF4z1xo