Willkommen bei WCM
Um alle Funktionen dieser Website nutzen zu können müssen Sie sich Einloggen oder Registrieren. Die Registrierung ist unverbindlich und dauert nur einen Moment.
540 Seiten « < 22 23 24 25 > »
Japan: App gestaltet Zeitungen kindgerecht
Veröffentlicht am 08.02.2013 12:21:02
Tokio/Wien - Damit Zeitungsinhalte nun auch für Kinder leichter zugänglich sind, hat das Werbeunternehmen Dentsu
in Zusammenarbeit mit der japanischen Tageszeitung Tokyo Shimbun eine App aus der Kategorie Augmented Reality entwickelt. Diese gestaltet Zeitungsartikel verständlicher. Die Gratis-App bietet umfangreiche Erklärungen und Animationen, welche lange Textblöcke unterhaltsamer werden lassen.
"Es gibt bestimmte Grundmuster, mit denen die Lernfähigkeit angeregt bzw. gesteigert werden kann. Generell gilt, dass alles, was begeistert oder auch den Spieltrieb unterstützt, die Aufmerksamkeitsschwelle anhebt", sagt Helmut Stemmer vom österreichischen Unterrichtsministerium. Ein weiteres Kriterium sei, ob die App altersgerecht gestaltet ist. Für Bildungszwecke geeignete "eduAPPs" stehen erst am Anfang ihrer Entwicklung und sind in ihrer Wirkung bisher noch kaum erforscht.
Trotz drei verschiedenen Schriftarten und der Vielfalt an Kanji-Schriftzeichen, von denen selbst einige den Einheimischen unklar sind, hat Japan weltweit eine der höchsten Alphabetisierungsraten. Dennoch bleibt der Zeitungsinhalt für die meisten Kinder unverständlich und uninteressant. Um wenigstens eine Handvoll der Artikel zu verstehen, sind die Kinder auf Furigana - eine japanische Lesehilfe zur Entzifferung von Kanji - angewiesen.
Die App funktioniert auf allen iOS-Geräten, wie zum Beispiel dem iPhone oder dem iPad. Sie erläutert nicht nur Kanji-Schriftzeichen, sondern sorgt auch durch eine Vereinfachung der Sprache für ein besseres Textverständnis. Somit wird Kindern bereits in sehr zartem Alter die Möglichkeit geboten, eine Tageszeitung wie die New York Times zu verstehen. Zusätzlich könnte diese App zu einer erheblichen Erhöhung des Bildungsgrades beitragen.
Veröffentlicht am 08.02.2013 12:21:02
Tokio/Wien - Damit Zeitungsinhalte nun auch für Kinder leichter zugänglich sind, hat das Werbeunternehmen Dentsu
in Zusammenarbeit mit der japanischen Tageszeitung Tokyo Shimbun eine App aus der Kategorie Augmented Reality entwickelt. Diese gestaltet Zeitungsartikel verständlicher. Die Gratis-App bietet umfangreiche Erklärungen und Animationen, welche lange Textblöcke unterhaltsamer werden lassen.
"Es gibt bestimmte Grundmuster, mit denen die Lernfähigkeit angeregt bzw. gesteigert werden kann. Generell gilt, dass alles, was begeistert oder auch den Spieltrieb unterstützt, die Aufmerksamkeitsschwelle anhebt", sagt Helmut Stemmer vom österreichischen Unterrichtsministerium. Ein weiteres Kriterium sei, ob die App altersgerecht gestaltet ist. Für Bildungszwecke geeignete "eduAPPs" stehen erst am Anfang ihrer Entwicklung und sind in ihrer Wirkung bisher noch kaum erforscht.
Trotz drei verschiedenen Schriftarten und der Vielfalt an Kanji-Schriftzeichen, von denen selbst einige den Einheimischen unklar sind, hat Japan weltweit eine der höchsten Alphabetisierungsraten. Dennoch bleibt der Zeitungsinhalt für die meisten Kinder unverständlich und uninteressant. Um wenigstens eine Handvoll der Artikel zu verstehen, sind die Kinder auf Furigana - eine japanische Lesehilfe zur Entzifferung von Kanji - angewiesen.
Die App funktioniert auf allen iOS-Geräten, wie zum Beispiel dem iPhone oder dem iPad. Sie erläutert nicht nur Kanji-Schriftzeichen, sondern sorgt auch durch eine Vereinfachung der Sprache für ein besseres Textverständnis. Somit wird Kindern bereits in sehr zartem Alter die Möglichkeit geboten, eine Tageszeitung wie die New York Times zu verstehen. Zusätzlich könnte diese App zu einer erheblichen Erhöhung des Bildungsgrades beitragen.
Smartphones verbessern Gewitterwarnungen
Veröffentlicht am 08.02.2013 12:19:32
Seattle/Montreal - Forscher der University of Washington (UW) setzen auf Smartphones, um bessere Wettervorhersagen zu ermöglichen. Konkret wollen sie die Daten nutzen, die in manche Android-Geräte verbaute Barometer liefern. "Dadurch könnten wir potenziell zehn- oder hunderttausende zusätzliche Bodenluftdruck-Messungen bekommen, was kurzfristige Vorhersagen signifikant verbessern würde", erklärt Cliff Mass, UW-Professor für Atmosphärische Wissenschaften. Sein Team arbeitet an einem Vorhersagesystem für Gewitterwarnungen.
Um an die Messungen von Smartphone-Barometern zu kommen, setzen die Forscher auf eine Zusammenarbeit mit dem kanadischen Softwarehaus Cumulomnibus. Denn dieses hat bereits Ende 2011 mit pressureNET eine App veröffentlicht, die Barometerdaten sammelt und für Nutzer der App auf einer Karte darstellt. Ende Januar ist Version 3.0 mit einer entscheidenden Neuerung erschienen: User werden jetzt gefragt, ob sie ihre Messdaten auch Dritten wie beispielsweise den UW-Forschern zur Verfügung stellen.
Mass verspricht sich gerade im Bereich Gewitterwarnungen große Vorteile von Smartphone-Messdaten. Dabei hat er besonders Regionen wie den Mittelwesten der USA und dort typische Gewitter im Blick. "Sie sind relativ kleinräumig und entwickeln sich in wenigen Stunden, können aber heftig ausfallen und Menschen stark betreffen", so der Experte. Aktuelle Daten, die kurzfristige Luftdruckänderungen aufzeigen, könnten bei der Vorhersage helfen. Doch gibt es beispielsweise in den USA nur etwa 1.000 nationale Wetterstationen.
Googles Betriebssystem Android unterstützt prinzipiell Barometer, die inzwischen auch in einer Reihe von Modellen wie dem Samsung Galaxy S3, dem Nexus 4 oder auch Tablets wie Motorolas Xoom verbaut sind. Aufgrund der Verbreitung dieser Geräte stünden allein in Nordamerika potenziell Mio. an Luftdruck-Messwerten pro Stunde zur Verfügung, so Mass. Das ist potenziell ein gewaltiger Datenschatz, der kurzfristige Wettervorhersagen wie eben Gewitterwarnungen entscheidend verbessern könnte - so er denn auch für Meteorologen zugänglich ist.
Hier setzen die UW-Forscher auf die App "pressureNET", die ursprünglich Luftdruckdaten nur mit anderen Nutzern geteilt hat. Doch jetzt hat Cumulomnibus die App so angepasst, dass User entscheiden können, mit wem sie ihre Daten teilen - insbesondere, ob die Messwerte auch Teil jenes Rohdatenstroms sein sollen, der den Forschern zur Verfügung steht. In der vergangenen Woche hat pressureNET so etwa 4.000 Messungen pro Stunde geliefert, vor allem aus dem Nordosten der USA. "Wir brauchen mehr Dichte", unterstreicht Mass.
Jedenfalls wollen die Forscher die Daten zunächst analysieren und kalibrieren, um sie dann wirklich für ein Vorhersagesystem zu nutzen. Diese wollen sie rechtzeitig vor der Gewittersaison im Sommer fertigstellen, um es entsprechend testen und mit traditionellen Vorhersagemethoden vergleichen zu können. Erweist sich der Ansatz wirklich als praktikabel, hoffen die Forscher, ihr System dem amerikanischen National Weather Service und Wetterdiensten rund um die Welt anbieten zu können.
Veröffentlicht am 08.02.2013 12:19:32
Seattle/Montreal - Forscher der University of Washington (UW) setzen auf Smartphones, um bessere Wettervorhersagen zu ermöglichen. Konkret wollen sie die Daten nutzen, die in manche Android-Geräte verbaute Barometer liefern. "Dadurch könnten wir potenziell zehn- oder hunderttausende zusätzliche Bodenluftdruck-Messungen bekommen, was kurzfristige Vorhersagen signifikant verbessern würde", erklärt Cliff Mass, UW-Professor für Atmosphärische Wissenschaften. Sein Team arbeitet an einem Vorhersagesystem für Gewitterwarnungen.
Um an die Messungen von Smartphone-Barometern zu kommen, setzen die Forscher auf eine Zusammenarbeit mit dem kanadischen Softwarehaus Cumulomnibus. Denn dieses hat bereits Ende 2011 mit pressureNET eine App veröffentlicht, die Barometerdaten sammelt und für Nutzer der App auf einer Karte darstellt. Ende Januar ist Version 3.0 mit einer entscheidenden Neuerung erschienen: User werden jetzt gefragt, ob sie ihre Messdaten auch Dritten wie beispielsweise den UW-Forschern zur Verfügung stellen.
Mass verspricht sich gerade im Bereich Gewitterwarnungen große Vorteile von Smartphone-Messdaten. Dabei hat er besonders Regionen wie den Mittelwesten der USA und dort typische Gewitter im Blick. "Sie sind relativ kleinräumig und entwickeln sich in wenigen Stunden, können aber heftig ausfallen und Menschen stark betreffen", so der Experte. Aktuelle Daten, die kurzfristige Luftdruckänderungen aufzeigen, könnten bei der Vorhersage helfen. Doch gibt es beispielsweise in den USA nur etwa 1.000 nationale Wetterstationen.
Googles Betriebssystem Android unterstützt prinzipiell Barometer, die inzwischen auch in einer Reihe von Modellen wie dem Samsung Galaxy S3, dem Nexus 4 oder auch Tablets wie Motorolas Xoom verbaut sind. Aufgrund der Verbreitung dieser Geräte stünden allein in Nordamerika potenziell Mio. an Luftdruck-Messwerten pro Stunde zur Verfügung, so Mass. Das ist potenziell ein gewaltiger Datenschatz, der kurzfristige Wettervorhersagen wie eben Gewitterwarnungen entscheidend verbessern könnte - so er denn auch für Meteorologen zugänglich ist.
Hier setzen die UW-Forscher auf die App "pressureNET", die ursprünglich Luftdruckdaten nur mit anderen Nutzern geteilt hat. Doch jetzt hat Cumulomnibus die App so angepasst, dass User entscheiden können, mit wem sie ihre Daten teilen - insbesondere, ob die Messwerte auch Teil jenes Rohdatenstroms sein sollen, der den Forschern zur Verfügung steht. In der vergangenen Woche hat pressureNET so etwa 4.000 Messungen pro Stunde geliefert, vor allem aus dem Nordosten der USA. "Wir brauchen mehr Dichte", unterstreicht Mass.
Jedenfalls wollen die Forscher die Daten zunächst analysieren und kalibrieren, um sie dann wirklich für ein Vorhersagesystem zu nutzen. Diese wollen sie rechtzeitig vor der Gewittersaison im Sommer fertigstellen, um es entsprechend testen und mit traditionellen Vorhersagemethoden vergleichen zu können. Erweist sich der Ansatz wirklich als praktikabel, hoffen die Forscher, ihr System dem amerikanischen National Weather Service und Wetterdiensten rund um die Welt anbieten zu können.
Virtuelle Ampel optimiert Verkehrsfluss
Veröffentlicht am 08.02.2013 12:17:57
Pittsburgh/München - Computerwissenschaftler der Carnegie Mellon University arbeiten derzeit an einem Verkehrs-Effizienz-System, das konventionelle Ampeln durch virtuelle, im Auto eingebaute, ersetzen soll. Das Programm heißt "Virtual Traffic Lights" und soll den Verkehrsfluss optimieren und somit Staus reduzieren. Nicht zuletzt soll auch die Lebensqualität der Stadtbewohner dadurch deutlich verbessert werden. Die virtuelle Ampel übermittelt Daten über den Standort und die Geschwindigkeit von Fahrzeug zu Fahrzeug in der Umgebung, sobald eine Kreuzung angefahren wird. Das rote oder grüne Licht erscheint infolgedessen auf der Windschutzscheibe.
Dadurch, dass mit Hilfe des Systems auch die kleinste Kreuzung koordiniert würde, sollte auch die Straßensicherheit den Wissenschaftlern zufolge deutlich zunehmen. Der Mechanismus wurde bereits in der portugiesischen Stadt Porto getestet, wo 16 Prozent der Kreuzungen mit Ampeln ausgestattet sind. Der Verkehrsfluss konnte dadurch um 60 Prozent während der Stoßzeit begünstigt werden.
"Die Verbesserung des Verkehrflusses sollte nicht an der Darstellungsvariante gekoppelt sein. Demnach hängt die Optimierung nicht davon ab, ob die Daten über einen Signalgeber an der Straße oder einer Hardware im Fahrzeug angezeigt wird", erklärt Jürgen Berlitz, Fachreferent für Straßenverkehrsplanung beim ADAC.
Laut dem Experten muss an diesem System noch vieles verbessert werden, da es in der Praxis noch einige Fragen aufwirft. "Rotlichtverstöße sind überaus relevant und ein Signalträger muss robust und zuverlässig sein. Zudem müssen Regelungen wie beispielsweise Schaltintervalle berücksichtigt werden", führt er aus. Die Genauigkeit der Standort-Lokalisierung für jedes einzelne Fahrzeug müsse zudem exakt bestimmt werden, um Unfälle zu vermeiden.
Auch der finanzielle Aufwand und die Adaption solch einer Technologie könne eine Problematik darstellen. "Es können zwar die Signalsteuergeräte an den Kreuzungen erspart werden - die fahrzeugseitige Infrastruktur erhöht aber wiederum die Kosten, wobei jeder Fahrer zusätzlich zwangsverpflichtet werden muss", so Berlitz. Physische Ampeln unterliegen vor ihrem Praxis-Einsatz vielerlei sorgfältigen Tests, in denen alle möglichen Schaltkombinationen erprobt werden müssen und gelten als überaus genau und sicher.
Veröffentlicht am 08.02.2013 12:17:57
Pittsburgh/München - Computerwissenschaftler der Carnegie Mellon University arbeiten derzeit an einem Verkehrs-Effizienz-System, das konventionelle Ampeln durch virtuelle, im Auto eingebaute, ersetzen soll. Das Programm heißt "Virtual Traffic Lights" und soll den Verkehrsfluss optimieren und somit Staus reduzieren. Nicht zuletzt soll auch die Lebensqualität der Stadtbewohner dadurch deutlich verbessert werden. Die virtuelle Ampel übermittelt Daten über den Standort und die Geschwindigkeit von Fahrzeug zu Fahrzeug in der Umgebung, sobald eine Kreuzung angefahren wird. Das rote oder grüne Licht erscheint infolgedessen auf der Windschutzscheibe.
Dadurch, dass mit Hilfe des Systems auch die kleinste Kreuzung koordiniert würde, sollte auch die Straßensicherheit den Wissenschaftlern zufolge deutlich zunehmen. Der Mechanismus wurde bereits in der portugiesischen Stadt Porto getestet, wo 16 Prozent der Kreuzungen mit Ampeln ausgestattet sind. Der Verkehrsfluss konnte dadurch um 60 Prozent während der Stoßzeit begünstigt werden.
"Die Verbesserung des Verkehrflusses sollte nicht an der Darstellungsvariante gekoppelt sein. Demnach hängt die Optimierung nicht davon ab, ob die Daten über einen Signalgeber an der Straße oder einer Hardware im Fahrzeug angezeigt wird", erklärt Jürgen Berlitz, Fachreferent für Straßenverkehrsplanung beim ADAC.
Laut dem Experten muss an diesem System noch vieles verbessert werden, da es in der Praxis noch einige Fragen aufwirft. "Rotlichtverstöße sind überaus relevant und ein Signalträger muss robust und zuverlässig sein. Zudem müssen Regelungen wie beispielsweise Schaltintervalle berücksichtigt werden", führt er aus. Die Genauigkeit der Standort-Lokalisierung für jedes einzelne Fahrzeug müsse zudem exakt bestimmt werden, um Unfälle zu vermeiden.
Auch der finanzielle Aufwand und die Adaption solch einer Technologie könne eine Problematik darstellen. "Es können zwar die Signalsteuergeräte an den Kreuzungen erspart werden - die fahrzeugseitige Infrastruktur erhöht aber wiederum die Kosten, wobei jeder Fahrer zusätzlich zwangsverpflichtet werden muss", so Berlitz. Physische Ampeln unterliegen vor ihrem Praxis-Einsatz vielerlei sorgfältigen Tests, in denen alle möglichen Schaltkombinationen erprobt werden müssen und gelten als überaus genau und sicher.
Roboter hält sich durch Geräuschanalyse verdeckt
Veröffentlicht am 08.02.2013 12:16:01
Melbourne/Linz - Forschern des CSIRO Autonomous Systems Laboratorys http://csiro.au ist es erstmals gelungen, einen Roboter zu entwickeln, der in der Lage ist, seine Anwesenheit mithilfe von Hintergrundgeräuschen zu verbergen. Durch eine eingehende Analyse dieser Geräusche ist es ihm möglich zu bestimmen, wie lang diese anhalten und seine Bewegungen und Schallemissionen daran anzugleichen.
"Entscheidend für das Verfahren, mit dessen Hilfe sich ein Roboter orientiert, sind einerseits das Einsatzgebiet und andererseits der Verwendungszweck. Grundsätzlich kann die Abstandsmessung durch Laserscanner, Kamerasysteme oder Ultraschallmessung erfolgen", sagt Johannes Kilian, Universitäts-Assistent des Instituts für Robotik in Linz
http://www.robotik.jku.at , im Interview. Laut dem Experten kommt bei mobilen Geräten zumeist eine Kombination aus Kamerasystem und Laserscanner zum Einsatz.
Ausgestattet mit einer Kamera, einem Laserscanner, einem Laptop und einem Schallpegelmesser ist der Roboter imstande, Geräusche wie läutende Handys, fahrende Autos oder Tierlaute in der Umwelt zu erfassen und sein Verhalten an den Schalldruckpegel anzupassen. Dank dieser Methode kann sich die Maschine auch in unerforschten Gebieten fortbewegen, während sie visuell wie auch akustisch unbemerkt bleibt.
Die vierrädrige Apparatur kann ihre Schallberechnungen nur durchführen, solange sich das Subjekt in einer Entfernung von bis zu 50 Metern befindet. Darüber hinaus ist die Vorrichtung dazu fähig, abgelegene Orte ausfindig zu machen, die am besten geeignet sind, um sich dort zu verstecken. Fortgeschrittene Versionen des Roboters werden den Herstellern zufolge bereits über ein Blickerfassungssystem verfügen, welches verhindert, visuell entdeckt zu werden.
Veröffentlicht am 08.02.2013 12:16:01
Melbourne/Linz - Forschern des CSIRO Autonomous Systems Laboratorys http://csiro.au ist es erstmals gelungen, einen Roboter zu entwickeln, der in der Lage ist, seine Anwesenheit mithilfe von Hintergrundgeräuschen zu verbergen. Durch eine eingehende Analyse dieser Geräusche ist es ihm möglich zu bestimmen, wie lang diese anhalten und seine Bewegungen und Schallemissionen daran anzugleichen.
"Entscheidend für das Verfahren, mit dessen Hilfe sich ein Roboter orientiert, sind einerseits das Einsatzgebiet und andererseits der Verwendungszweck. Grundsätzlich kann die Abstandsmessung durch Laserscanner, Kamerasysteme oder Ultraschallmessung erfolgen", sagt Johannes Kilian, Universitäts-Assistent des Instituts für Robotik in Linz
http://www.robotik.jku.at , im Interview. Laut dem Experten kommt bei mobilen Geräten zumeist eine Kombination aus Kamerasystem und Laserscanner zum Einsatz.
Ausgestattet mit einer Kamera, einem Laserscanner, einem Laptop und einem Schallpegelmesser ist der Roboter imstande, Geräusche wie läutende Handys, fahrende Autos oder Tierlaute in der Umwelt zu erfassen und sein Verhalten an den Schalldruckpegel anzupassen. Dank dieser Methode kann sich die Maschine auch in unerforschten Gebieten fortbewegen, während sie visuell wie auch akustisch unbemerkt bleibt.
Die vierrädrige Apparatur kann ihre Schallberechnungen nur durchführen, solange sich das Subjekt in einer Entfernung von bis zu 50 Metern befindet. Darüber hinaus ist die Vorrichtung dazu fähig, abgelegene Orte ausfindig zu machen, die am besten geeignet sind, um sich dort zu verstecken. Fortgeschrittene Versionen des Roboters werden den Herstellern zufolge bereits über ein Blickerfassungssystem verfügen, welches verhindert, visuell entdeckt zu werden.
Hightech-Kleid wird bei Erregung transparent
Veröffentlicht am 08.02.2013 12:15:42
Waddinxveen/Wien - Der niederländische Designer Daan Roosegaarde http://studioroosegaarde.net hat ein Hightech-Kleid entwickelt, das bei sexueller Erregung durchsichtig wird. Das Stück - genannt "Intimacy2.0" - soll eine Interaktion zwischen Technologie und Körperfunktionen darstellen und besteht aus trüben Smart-Folien sowie Leder. Bei Herzrasen, ausgelöst durch Erregung, werden diese transparent. Die Wireless-Technologie ist unter anderem gekoppelt mit Kupfer, LED-Lichtern und anderen elektronischen Medien. Die Stufe der Transparenz richtet sich dabei nach dem Grad der Körperregung. Derzeit ist das Kleid nur in Hongkong und Paris ausgestellt und soll künftig für ein breites Publikum erwerbbar sein.
"Das Kleid ist eine Art, recht intime Gefühle zu offenbaren. Dazu muss eine Person schon sehr zeigefreudig sein und kann dabei bestimmt auch Genuss empfinden", erklärt Sexualtherapeut Richard. L. Fellner im Gespräch. Das Kleid sei jedoch als Produkt gedacht, das einen gewissen "Kick" provozieren soll. "Es nimmt ein anderes Ausmaß an Zeigefreudigkeit an, ohne sich dabei zu entblößen", sagt er. Es sei für diejenigen vor allem empfehlenswert, die sich sehr sicher fühlen.
Für Personen mit sozialen Problemen und Schamgefühlen sei diese Erfindung allerdings ein etwas zu rabiates Mittel, um diese Hemmungen zu überwinden. "Sie würden sich zu brutal exponieren. Das könnte sie in ihrer persönlichen Entwicklung auch zurückwerfen. Hier sollte man vielmehr versuchen, sachte herauszufinden, woher diese Probleme kommen", so Fellner.
Das innovative Hightech-Kleid ist Roosegaarde jedoch nicht genug. Der Designer arbeitet zusätzlich an einem Kostüm für Männer, das durchsichtig wird, wenn diese lügen. "Ich sehe das als Gag. Menschen lügen, um etwas zu verstecken", führt der Therapeut aus. Der einzige Grund für Männer, sich diesen Anzug zu kaufen, wäre wohl der Fasching.
Veröffentlicht am 08.02.2013 12:15:42
Waddinxveen/Wien - Der niederländische Designer Daan Roosegaarde http://studioroosegaarde.net hat ein Hightech-Kleid entwickelt, das bei sexueller Erregung durchsichtig wird. Das Stück - genannt "Intimacy2.0" - soll eine Interaktion zwischen Technologie und Körperfunktionen darstellen und besteht aus trüben Smart-Folien sowie Leder. Bei Herzrasen, ausgelöst durch Erregung, werden diese transparent. Die Wireless-Technologie ist unter anderem gekoppelt mit Kupfer, LED-Lichtern und anderen elektronischen Medien. Die Stufe der Transparenz richtet sich dabei nach dem Grad der Körperregung. Derzeit ist das Kleid nur in Hongkong und Paris ausgestellt und soll künftig für ein breites Publikum erwerbbar sein.
"Das Kleid ist eine Art, recht intime Gefühle zu offenbaren. Dazu muss eine Person schon sehr zeigefreudig sein und kann dabei bestimmt auch Genuss empfinden", erklärt Sexualtherapeut Richard. L. Fellner im Gespräch. Das Kleid sei jedoch als Produkt gedacht, das einen gewissen "Kick" provozieren soll. "Es nimmt ein anderes Ausmaß an Zeigefreudigkeit an, ohne sich dabei zu entblößen", sagt er. Es sei für diejenigen vor allem empfehlenswert, die sich sehr sicher fühlen.
Für Personen mit sozialen Problemen und Schamgefühlen sei diese Erfindung allerdings ein etwas zu rabiates Mittel, um diese Hemmungen zu überwinden. "Sie würden sich zu brutal exponieren. Das könnte sie in ihrer persönlichen Entwicklung auch zurückwerfen. Hier sollte man vielmehr versuchen, sachte herauszufinden, woher diese Probleme kommen", so Fellner.
Das innovative Hightech-Kleid ist Roosegaarde jedoch nicht genug. Der Designer arbeitet zusätzlich an einem Kostüm für Männer, das durchsichtig wird, wenn diese lügen. "Ich sehe das als Gag. Menschen lügen, um etwas zu verstecken", führt der Therapeut aus. Der einzige Grund für Männer, sich diesen Anzug zu kaufen, wäre wohl der Fasching.
Erste essbare Schoko-Lampe erschienen
Veröffentlicht am 08.02.2013 12:15:42
Stockholm/Helsinki - "The Poetry of Light" ist eine essbare Schokoladen-Lampe, die vom schwedischen Künstler Alexander Lervik http://lervik.se designt wurde. Innerhalb der Schoko-Pyramide verbirgt sich eine helle Glühbirne, die das Kakaoprodukt allmählich erwärmt, langsam schmelzen lässt und somit die ersten Lichtstrahlen durchsickern lässt. Langlebig ist die Lampe zwar nicht, denn nach rund 15 Minuten wird der Block gänzlich flüssig. Die geschmolzene Schokolade kann aber sofort als Dessert und Energiebooster verzehrt werden.
Schokolade hat sich mittlerweile zu einem überaus beliebten Lebensmittel bei Künstlern entwickelt. Neben essbaren Utensilien wird sie häufig auch als Bewirtungs-Dekoration oder für 3D-Printings genutzt, indem auch unter anderem Bilder oder Postkarten von Laien mit Schokolade ausgedruckt werden können. Mit "The Poetry of Light" hat Lervik versucht, den Kontrast zwischen Licht und Dunkelheit darzustellen.
Die Form der essbaren Dekoration, die laut ihrem Erfinder aus purer Neugier entstanden ist, wurde nach mehreren intensiven Untersuchungen zum Schmelzvorgang entworfen, wobei die Spitze der Pyramide "abgeschnitten" und stumpf ist. Die Glühbirne der Lampe wurde vom skandinavischen LED-Spezialisten SAAS Instruments http://www.saas.fi hergestellt.
Veröffentlicht am 08.02.2013 12:15:42
Stockholm/Helsinki - "The Poetry of Light" ist eine essbare Schokoladen-Lampe, die vom schwedischen Künstler Alexander Lervik http://lervik.se designt wurde. Innerhalb der Schoko-Pyramide verbirgt sich eine helle Glühbirne, die das Kakaoprodukt allmählich erwärmt, langsam schmelzen lässt und somit die ersten Lichtstrahlen durchsickern lässt. Langlebig ist die Lampe zwar nicht, denn nach rund 15 Minuten wird der Block gänzlich flüssig. Die geschmolzene Schokolade kann aber sofort als Dessert und Energiebooster verzehrt werden.
Schokolade hat sich mittlerweile zu einem überaus beliebten Lebensmittel bei Künstlern entwickelt. Neben essbaren Utensilien wird sie häufig auch als Bewirtungs-Dekoration oder für 3D-Printings genutzt, indem auch unter anderem Bilder oder Postkarten von Laien mit Schokolade ausgedruckt werden können. Mit "The Poetry of Light" hat Lervik versucht, den Kontrast zwischen Licht und Dunkelheit darzustellen.
Die Form der essbaren Dekoration, die laut ihrem Erfinder aus purer Neugier entstanden ist, wurde nach mehreren intensiven Untersuchungen zum Schmelzvorgang entworfen, wobei die Spitze der Pyramide "abgeschnitten" und stumpf ist. Die Glühbirne der Lampe wurde vom skandinavischen LED-Spezialisten SAAS Instruments http://www.saas.fi hergestellt.
Eurora: Hochleistungscomputer aus Italien
Veröffentlicht am 05.02.2013 12:01:01
Bologna - Die auf Informationstechnik und elektronische Bauteile spezialisierte oberitalienische Firma Eurotech
hat in Italiens größtem Rechenzentrum "Cineca" den effizientesten Supercomputer der Welt vorgestellt. Im Gegensatz zu den meisten herkömmlichen Bautypen kommt der "European Many Integrated Core and Architecture" (Eurora) ohne Kühlgebläse aus.
In dem Hochleistungsrechner sind 128 Hardwarebeschleuniger vom Typ Gpu Nvidia Tesla K20 eingebaut. Jede der 64 Steckkarten hat das Volumen eines Laptops und kommt auf eine Leistung von 1,7 Mio. Gleitkommaoperationen pro Sekunde. Im Vergleich zu dem von IBM angebotenen "Fermi" sind die auf 1,0 x 1,5 Meter begrenzten Abmessungen deutlich kleiner. Unter Laborbedingungen wurden 3,15 Gigaflops je Watt gemessen.
Die Steckkarten sind auf der einen Seite mit Intel-Prozessoren und Arbeitsspeichern bestückt, während auf der Gegenseite die Hardwarebeschleuniger angebracht sind. Jede von ihnen wird von einer Aluminiumschiene mit separatem Kreislauf durchquert, die mit 20 Liter Wasser gefüllt ist und für die Kühlung sorgt. "Dadurch arbeitet der Eurora nahezu geräuschlos", sagt Entwicklungsleiter Giampietro Tecchiolli.
Der vollständig mit italienischem Know-how konstruierte Supercomputer liegt in der nach Energieeffizienzkriterien geführten Weltrangliste "Green 500" auf Platz eins. Bislang war dieser vom National Institute for Computation Sciences an der University of Tenessee mit einer Leistungsdichte von 2,4 Gigaflops je Watt beansprucht worden. Das US-Konkurrenzprodukt wird damit von dem italienischen Modell um 20 Prozent übertroffen.
"Der Verzicht auf ein Kühlgebläse führt zu einer erheblichen Energieersparnis", unterstreicht der italienische Wissenschaftler. Für die in einem südlichen Land wie Italien üblichen Klimaverhältnisse sei dieser Bautyp ideal. Mit der Entwicklung des Eurora ist 2011 begonnen worden. Er gilt als Prototyp für den geplanten "Aurora Tigon", der zwischen 1,4 und 2,4 Mio. Euro kosten wird. Die Forschungsarbeit gehört zu dem europäischen It-Projekt "Prace", das die Bereitstellung eines Netzwerkes aus High Performance Computing für europäische Forscher und Wissenschaftler zum Ziel hat.
Veröffentlicht am 05.02.2013 12:01:01
Bologna - Die auf Informationstechnik und elektronische Bauteile spezialisierte oberitalienische Firma Eurotech
hat in Italiens größtem Rechenzentrum "Cineca" den effizientesten Supercomputer der Welt vorgestellt. Im Gegensatz zu den meisten herkömmlichen Bautypen kommt der "European Many Integrated Core and Architecture" (Eurora) ohne Kühlgebläse aus.
In dem Hochleistungsrechner sind 128 Hardwarebeschleuniger vom Typ Gpu Nvidia Tesla K20 eingebaut. Jede der 64 Steckkarten hat das Volumen eines Laptops und kommt auf eine Leistung von 1,7 Mio. Gleitkommaoperationen pro Sekunde. Im Vergleich zu dem von IBM angebotenen "Fermi" sind die auf 1,0 x 1,5 Meter begrenzten Abmessungen deutlich kleiner. Unter Laborbedingungen wurden 3,15 Gigaflops je Watt gemessen.
Die Steckkarten sind auf der einen Seite mit Intel-Prozessoren und Arbeitsspeichern bestückt, während auf der Gegenseite die Hardwarebeschleuniger angebracht sind. Jede von ihnen wird von einer Aluminiumschiene mit separatem Kreislauf durchquert, die mit 20 Liter Wasser gefüllt ist und für die Kühlung sorgt. "Dadurch arbeitet der Eurora nahezu geräuschlos", sagt Entwicklungsleiter Giampietro Tecchiolli.
Der vollständig mit italienischem Know-how konstruierte Supercomputer liegt in der nach Energieeffizienzkriterien geführten Weltrangliste "Green 500" auf Platz eins. Bislang war dieser vom National Institute for Computation Sciences an der University of Tenessee mit einer Leistungsdichte von 2,4 Gigaflops je Watt beansprucht worden. Das US-Konkurrenzprodukt wird damit von dem italienischen Modell um 20 Prozent übertroffen.
"Der Verzicht auf ein Kühlgebläse führt zu einer erheblichen Energieersparnis", unterstreicht der italienische Wissenschaftler. Für die in einem südlichen Land wie Italien üblichen Klimaverhältnisse sei dieser Bautyp ideal. Mit der Entwicklung des Eurora ist 2011 begonnen worden. Er gilt als Prototyp für den geplanten "Aurora Tigon", der zwischen 1,4 und 2,4 Mio. Euro kosten wird. Die Forschungsarbeit gehört zu dem europäischen It-Projekt "Prace", das die Bereitstellung eines Netzwerkes aus High Performance Computing für europäische Forscher und Wissenschaftler zum Ziel hat.
Analyst: BlackBerry 10 wird relativ erfolgreich
Veröffentlicht am 04.02.2013 13:54:59
London/Oyster Bay - Dem Analystenhaus ABI Research zufolge bleiben 2013 zwar Android und iOS klare Marktführer im Bereich Smartphone-Betriebssysteme. Die Herausforderer Windows Phone und das neue BlackBerry 10 werden bis Jahresende trotz vergleichsweise geringen Anteilen an insgesamt 1,4 Mrd. im Umlauf befindlichen Smartphones aber doch relativ erfolgreich sein. Denn beide Plattformen bleiben nach ABI-Einschätzung für App-Entwickler attraktiv - was wiederum entscheidend für ihre weiteren Marktchancen ist.
Im Fall von BlackBerry 10 reichen dafür nach ABI-Einschätzung 20 Mio. Geräte. "Das wird nach weniger als einem Jahr der Verfügbarkeit sein - und bei einem eigentlich eher hochpreisigen Gerät", betont Senior Analyst Aapo Markkanen. Somit stellen BlackBerry-Besitzer ein für Entwickler vergleichsweise lohnendes Zielpublikum dar. Bei Windows Phone rechnet ABI immerhin mit 45 Mio. Smartphones bis Jahresende - und Synergie-Effekten mit Windows-Tablets.
Das ehemalige Research in Motion hat sich zum Start seines neuen Betriebssystems selbst in BlackBerry umbenannt und kann sich über positiv ausfallende erste Reviews des Ende Januar vorgestellten Smartphones BlackBerry Z10 freuen. Insgesamt geht ABI Research davon aus, dass der Konzern mit BlackBerry 10 seine Stellung als einer der drei wichtigsten Anbieter im Bereich Enterprise-Smartphones einzementieren kann. Doch wird auch die Aufnahme durch Endkunden wichtig, wofür wiederum ein attraktives App-Ökosystem und somit das Interesse von Entwicklern an der Plattform mitentscheidend ist.
"Die größte Sorge sowohl für BlackBerry als auch Microsoft wäre, dass die anfänglichen Verkaufszahlen enttäuschen und somit Entwickler das Interesse verlieren, was effektiv Chancen auf einen weiteren Erfolg eliminieren würde", betont Markkanen. Doch geht er davon aus, dass die von ABI erwarteten 20 Mio. BlackBerry-10-Geräte (rund 1,4 Prozent aller Smartphones) für diese Plattform ausreichen. "Bedenken Sie, dass eine homogene Gerätebasis, die vermutlich von einer Kundenbasis mit höherem Einkommen genutzt wird, für App- und Content-Entwickler recht attraktiv sein kann - gerade, wenn sie wie bei BlackBerry extra Unterstützung bekommen", so der Analyst.
"Was Windows Phone betrifft, ist eine Gerätebasis von 45 Mio. Stück nur schlecht, wenn man hohe Erwartungen hatte", meint Markkanen. Zudem rechnet ABI bis Ende 2013 mit 5,5 Mio. Windows-Tablets, die wohl großteils Windows RT nutzen. Sie bilden demnach effektiv ein gemeinsames Ökosystem mit Windows Phone. "Aus Developer-Sicht braucht es wenig, um eine Windows-Phone-App als Windows-Tablet-App umzusetzen", erklärt der Analyst. Im Prinzip müssen Entwickler sich vor allem überlegen, wie sie den größeren Bildschirm am besten ausnutzen, der Programmierprozess sei aber relativ einfach - was letztlich an Android und iOS erinnert.
Eben diese Betriebssysteme bleiben im Smartphone-Bereich 2013 dominant. Bis Jahresende rechnet ABI mit einem Anteil von 57 bzw. 21 Prozent für Android und iOS und den im Umlauf befindlichen Geräten. Immerhin noch fast jedes zwölfte genutzte Smartphone wird das in die Jahre gekommene Symbian nutzen, rund fünf Prozent ältere BlackBerry-Versionen. Samsungs auslaufendes Bada wird nach ABI-Schätzung zu Jahresende immerhin noch auf jedem 50. Smartphone laufen, während das Analystenhaus dem als potenzielle Zukunftshoffnung gehandelten Tizen https://www.tizen.org bis Ende 2013 nur 0,3 Prozent Anteil an der Gerätebasis zutraut.
Veröffentlicht am 04.02.2013 13:54:59
London/Oyster Bay - Dem Analystenhaus ABI Research zufolge bleiben 2013 zwar Android und iOS klare Marktführer im Bereich Smartphone-Betriebssysteme. Die Herausforderer Windows Phone und das neue BlackBerry 10 werden bis Jahresende trotz vergleichsweise geringen Anteilen an insgesamt 1,4 Mrd. im Umlauf befindlichen Smartphones aber doch relativ erfolgreich sein. Denn beide Plattformen bleiben nach ABI-Einschätzung für App-Entwickler attraktiv - was wiederum entscheidend für ihre weiteren Marktchancen ist.
Im Fall von BlackBerry 10 reichen dafür nach ABI-Einschätzung 20 Mio. Geräte. "Das wird nach weniger als einem Jahr der Verfügbarkeit sein - und bei einem eigentlich eher hochpreisigen Gerät", betont Senior Analyst Aapo Markkanen. Somit stellen BlackBerry-Besitzer ein für Entwickler vergleichsweise lohnendes Zielpublikum dar. Bei Windows Phone rechnet ABI immerhin mit 45 Mio. Smartphones bis Jahresende - und Synergie-Effekten mit Windows-Tablets.
Das ehemalige Research in Motion hat sich zum Start seines neuen Betriebssystems selbst in BlackBerry umbenannt und kann sich über positiv ausfallende erste Reviews des Ende Januar vorgestellten Smartphones BlackBerry Z10 freuen. Insgesamt geht ABI Research davon aus, dass der Konzern mit BlackBerry 10 seine Stellung als einer der drei wichtigsten Anbieter im Bereich Enterprise-Smartphones einzementieren kann. Doch wird auch die Aufnahme durch Endkunden wichtig, wofür wiederum ein attraktives App-Ökosystem und somit das Interesse von Entwicklern an der Plattform mitentscheidend ist.
"Die größte Sorge sowohl für BlackBerry als auch Microsoft wäre, dass die anfänglichen Verkaufszahlen enttäuschen und somit Entwickler das Interesse verlieren, was effektiv Chancen auf einen weiteren Erfolg eliminieren würde", betont Markkanen. Doch geht er davon aus, dass die von ABI erwarteten 20 Mio. BlackBerry-10-Geräte (rund 1,4 Prozent aller Smartphones) für diese Plattform ausreichen. "Bedenken Sie, dass eine homogene Gerätebasis, die vermutlich von einer Kundenbasis mit höherem Einkommen genutzt wird, für App- und Content-Entwickler recht attraktiv sein kann - gerade, wenn sie wie bei BlackBerry extra Unterstützung bekommen", so der Analyst.
"Was Windows Phone betrifft, ist eine Gerätebasis von 45 Mio. Stück nur schlecht, wenn man hohe Erwartungen hatte", meint Markkanen. Zudem rechnet ABI bis Ende 2013 mit 5,5 Mio. Windows-Tablets, die wohl großteils Windows RT nutzen. Sie bilden demnach effektiv ein gemeinsames Ökosystem mit Windows Phone. "Aus Developer-Sicht braucht es wenig, um eine Windows-Phone-App als Windows-Tablet-App umzusetzen", erklärt der Analyst. Im Prinzip müssen Entwickler sich vor allem überlegen, wie sie den größeren Bildschirm am besten ausnutzen, der Programmierprozess sei aber relativ einfach - was letztlich an Android und iOS erinnert.
Eben diese Betriebssysteme bleiben im Smartphone-Bereich 2013 dominant. Bis Jahresende rechnet ABI mit einem Anteil von 57 bzw. 21 Prozent für Android und iOS und den im Umlauf befindlichen Geräten. Immerhin noch fast jedes zwölfte genutzte Smartphone wird das in die Jahre gekommene Symbian nutzen, rund fünf Prozent ältere BlackBerry-Versionen. Samsungs auslaufendes Bada wird nach ABI-Schätzung zu Jahresende immerhin noch auf jedem 50. Smartphone laufen, während das Analystenhaus dem als potenzielle Zukunftshoffnung gehandelten Tizen https://www.tizen.org bis Ende 2013 nur 0,3 Prozent Anteil an der Gerätebasis zutraut.
anovis erhält den Barracuda EMEA 2012 Top Revenue Producer Award
Veröffentlicht am 04.02.2013 13:54:49
Wien/Campbell, Kalifornien - Der US amerikanische Hersteller Barracuda Networks verleiht den Barracuda EMEA 2012 Top Revenue Producer Award an anovis.
Das von Österreich aus international agierende Unternehmen anovis war 2012 EMEA (Europe/Middle East/Africa)-weit das erfolgreichste Partnerunternehmen des in Kalifornien / USA beheimateten IT Herstellers Barracuda Networks. Michael Hughes (SVP Worldwide Sales bei Barracuda Networks) und Dr. Wieland Alge (EMEA Manager) überreichten den Award persönlich im Rahmen des Barracuda Partner Summits 2013 in Napa/Kalifornien an die beiden aus Österreich angereisten anovis Geschäftsführer Adi Reschenhofer und Albert Fragner.
Veröffentlicht am 04.02.2013 13:54:49
Wien/Campbell, Kalifornien - Der US amerikanische Hersteller Barracuda Networks verleiht den Barracuda EMEA 2012 Top Revenue Producer Award an anovis.
Das von Österreich aus international agierende Unternehmen anovis war 2012 EMEA (Europe/Middle East/Africa)-weit das erfolgreichste Partnerunternehmen des in Kalifornien / USA beheimateten IT Herstellers Barracuda Networks. Michael Hughes (SVP Worldwide Sales bei Barracuda Networks) und Dr. Wieland Alge (EMEA Manager) überreichten den Award persönlich im Rahmen des Barracuda Partner Summits 2013 in Napa/Kalifornien an die beiden aus Österreich angereisten anovis Geschäftsführer Adi Reschenhofer und Albert Fragner.
Eigenheim 2.0: Interaktiver Video-Fußboden
Veröffentlicht am 04.02.2013 13:54:38
Potsdam - Die Integration hochmoderner Computertechnologie in die häusliche Umgebung der User ist für die Forschung genauso spannend wie herausfordernd. Dass auch in Deutschland mit Hochdruck an dem "Eigenheim 2.0" gearbeitet wird, zeigt ein aktuelles Projekt am Hasso Plattner Institut (HPI) in Potsdam. Dort haben Wissenschaftler einen Prototyp eines interaktiven Video-Fußbodens namens "GravitySpace" entwickelt, der über verschiedene Sensoren das Gewicht und die Bewegung von Usern erfassen kann und diese auf Basis der gesammelten Daten gewissermaßen virtuell spiegelt. Auf diese Weise sollen sich künftig vernetzte Anwendungen und Geräte im eigenen Haushalt wesentlich einfach steuern lassen.
"GravitySpace ist eine neue Methode, mehr über die Personen eines Raums zu erfahren, um sie dadurch besser unterstützen zu können", erklären Projektleiter Dominik Schmidt und Patrick Baudisch, Leiter der HPI-Forschungsgruppe "The Human Computer Interaction", die Grundidee. Im Gegensatz zu traditionellen Kamera-basierten Verfahren nehme GravitySpace lediglich den direkten Kontakt mit dem Fußboden wahr, etwa hochauflösende Fussabdrücke oder die Umrandung von Möbeln. "Der Vorteil aus technischer Sicht ist, dass die Wahrnehmung des Raums überall gleich gut ist. Der Vorteil aus Benutzersicht ist, dass die Technologie in den Hintergrund tritt. Wer möchte schon in einem Raum voller Kameras leben?", fragen die Forscher.
Kernstück des GravitySpace-Prototyps ist ein acht Quadratmeter großes Bodenstück, das aus 6,4 Zentimeter dickem Glas mit einer gummiartigen, berührungsempfindlichen Beschichtung besteht und über eine entsprechend ausgehöhlte Vertiefung in einen Standard-Fußboden eingesetzt werden kann. Um Menschen, die sich darauf bewegen, korrekt erfassen bzw. virtuell spiegeln zu können, sind in einem darunterliegenden Raum zudem eine Infrarotkamera sowie ein hochauflösender Videoprojektor angebracht, die Fußabdrücke auf der Oberfläche registrieren und Videosignale auf die Oberseite der Glassfläche weiterleiten.
Sobald sich ein Nutzer über die touch-sensitive Bodenplatte bewegt, erzeugt die Infrarotkamera auf Basis der gesammelten Daten ein virtuelles Abbild des jeweiligen Fußabdrucks. "Der Berührungssensor ist so hochauflösend, dass er sogar den Sohlenabdruck, die Beschaffenheit des verwendeten Materials bis hin zu den Knien der User erkennen kann", betont Baudisch. Eine spezielle Software registriert genau, wo sich die Nutzer im Raum aufhalten und wie sie sich bewegen und erstellt daraus ein virtuelles Videoabbild.
"Im Moment liegt unser Fokus ganz klar auf der Forschung", beschreiben Schmidt und Baudisch den aktuellen Stand ihres Projekts, das unter anderem auch von Microsoft Research Cambridge gefördert wird. Längerfristig gesehen soll die Funktionalität von GravitySpace aber auch deutlich breiter verfügbar werden. "Wir denken hier zum Beispiel an druckempfindliche Teppiche, die in normalen Wohnräumen verlegt werden können", so die Forscher abschließend.
Veröffentlicht am 04.02.2013 13:54:38
Potsdam - Die Integration hochmoderner Computertechnologie in die häusliche Umgebung der User ist für die Forschung genauso spannend wie herausfordernd. Dass auch in Deutschland mit Hochdruck an dem "Eigenheim 2.0" gearbeitet wird, zeigt ein aktuelles Projekt am Hasso Plattner Institut (HPI) in Potsdam. Dort haben Wissenschaftler einen Prototyp eines interaktiven Video-Fußbodens namens "GravitySpace" entwickelt, der über verschiedene Sensoren das Gewicht und die Bewegung von Usern erfassen kann und diese auf Basis der gesammelten Daten gewissermaßen virtuell spiegelt. Auf diese Weise sollen sich künftig vernetzte Anwendungen und Geräte im eigenen Haushalt wesentlich einfach steuern lassen.
"GravitySpace ist eine neue Methode, mehr über die Personen eines Raums zu erfahren, um sie dadurch besser unterstützen zu können", erklären Projektleiter Dominik Schmidt und Patrick Baudisch, Leiter der HPI-Forschungsgruppe "The Human Computer Interaction", die Grundidee. Im Gegensatz zu traditionellen Kamera-basierten Verfahren nehme GravitySpace lediglich den direkten Kontakt mit dem Fußboden wahr, etwa hochauflösende Fussabdrücke oder die Umrandung von Möbeln. "Der Vorteil aus technischer Sicht ist, dass die Wahrnehmung des Raums überall gleich gut ist. Der Vorteil aus Benutzersicht ist, dass die Technologie in den Hintergrund tritt. Wer möchte schon in einem Raum voller Kameras leben?", fragen die Forscher.
Kernstück des GravitySpace-Prototyps ist ein acht Quadratmeter großes Bodenstück, das aus 6,4 Zentimeter dickem Glas mit einer gummiartigen, berührungsempfindlichen Beschichtung besteht und über eine entsprechend ausgehöhlte Vertiefung in einen Standard-Fußboden eingesetzt werden kann. Um Menschen, die sich darauf bewegen, korrekt erfassen bzw. virtuell spiegeln zu können, sind in einem darunterliegenden Raum zudem eine Infrarotkamera sowie ein hochauflösender Videoprojektor angebracht, die Fußabdrücke auf der Oberfläche registrieren und Videosignale auf die Oberseite der Glassfläche weiterleiten.
Sobald sich ein Nutzer über die touch-sensitive Bodenplatte bewegt, erzeugt die Infrarotkamera auf Basis der gesammelten Daten ein virtuelles Abbild des jeweiligen Fußabdrucks. "Der Berührungssensor ist so hochauflösend, dass er sogar den Sohlenabdruck, die Beschaffenheit des verwendeten Materials bis hin zu den Knien der User erkennen kann", betont Baudisch. Eine spezielle Software registriert genau, wo sich die Nutzer im Raum aufhalten und wie sie sich bewegen und erstellt daraus ein virtuelles Videoabbild.
"Im Moment liegt unser Fokus ganz klar auf der Forschung", beschreiben Schmidt und Baudisch den aktuellen Stand ihres Projekts, das unter anderem auch von Microsoft Research Cambridge gefördert wird. Längerfristig gesehen soll die Funktionalität von GravitySpace aber auch deutlich breiter verfügbar werden. "Wir denken hier zum Beispiel an druckempfindliche Teppiche, die in normalen Wohnräumen verlegt werden können", so die Forscher abschließend.
ESA plant Mondbasis aus dem 3D-Drucker
Veröffentlicht am 04.02.2013 13:54:38
Paris/London - Die europäische Weltraumbehörde ESA http://www.esa.int hat sich mit Industriepartnern und den Architekten Foster + Partners zusammengetan um die Möglichkeit zu untersuchen, eine Mondbasis mittels 3D-Druck zu bauen. Das Konsortium zielt insbesondere darauf ab, dazu mit robotischen Druckern Mond-Regolith - lockeres Oberflächengestein - als Baumaterial zu verwenden. Denn das hat den Vorteil, dass es vor Ort praktisch frei verfügbar ist und nicht erst teuer von der Erde herangeschafft werden müsste.
"Terrestrische 3D-Druck-Technologie hat ganze Strukturen geschaffen", so ESA-Projektleiter Laurent Pambaguian. Daher lag es nahe zu untersuchen, ob der Ansatz auch zum Aufbau eines Mond-Habitats geeignet ist. Foster + Partners hat dazu mit Partnern ein Design für ein Vier-Personen-Haus entwickelt, bei dem nur ein röhrenförmiges Grundmodul per Rakete zum Mond befördert werden muss. Aus einem Ende kommt dann eine aufblasbare Kuppel, die den weiteren Aufbau stützt.
Der Plan ist, mit robotischen 3D-Druckern schichtweise Regolith über die aufblasbare Kuppel anzulagern und so eine wirklich stabile, schützende Struktur zu erhalten. Das Design ist Foster + Partners zufolge geeignet, Schutz vor Meteoriten, Gammastrahlung und starken Temperaturschwankungen, wie sie auf weiten Teilen der Mondoberfläche üblich sind, zu bieten. Die Struktur setzt dabei auf einen hohlen zellularen Aufbau ähnlich Schaumstoff. Das soll strukturelle Stärke sicherstellen, ohne viel Bindemittel zu erfordern. Der Bau soll nahe dem Mond-Südpol erfolgen, da hier praktisch ständig Licht ist und sich Temperaturschwankungen in Grenzen halten.
Derartige 3D-Drucktechnologie soll überhaupt die Eroberung des Weltraums vorantreiben. Darauf setzt freilich nicht nur die ESA, und die potenziellen Anwendungsgebiete sind vielfältig. Die NASA beispielsweise will Raumschiffen die Rückkehr zur Erde dank Regolith-gedruckter Hitzeschilde ermöglichen une kürzlich vom Unternehmen Deep Space Industries vorgestellte Pläne für den Asteroiden-Berbau wiederum sehen vor, dass langfristig Ersatz- und Bauteile im Weltraum gedruckt werden.
Veröffentlicht am 04.02.2013 13:54:38
Paris/London - Die europäische Weltraumbehörde ESA http://www.esa.int hat sich mit Industriepartnern und den Architekten Foster + Partners zusammengetan um die Möglichkeit zu untersuchen, eine Mondbasis mittels 3D-Druck zu bauen. Das Konsortium zielt insbesondere darauf ab, dazu mit robotischen Druckern Mond-Regolith - lockeres Oberflächengestein - als Baumaterial zu verwenden. Denn das hat den Vorteil, dass es vor Ort praktisch frei verfügbar ist und nicht erst teuer von der Erde herangeschafft werden müsste.
"Terrestrische 3D-Druck-Technologie hat ganze Strukturen geschaffen", so ESA-Projektleiter Laurent Pambaguian. Daher lag es nahe zu untersuchen, ob der Ansatz auch zum Aufbau eines Mond-Habitats geeignet ist. Foster + Partners hat dazu mit Partnern ein Design für ein Vier-Personen-Haus entwickelt, bei dem nur ein röhrenförmiges Grundmodul per Rakete zum Mond befördert werden muss. Aus einem Ende kommt dann eine aufblasbare Kuppel, die den weiteren Aufbau stützt.
Der Plan ist, mit robotischen 3D-Druckern schichtweise Regolith über die aufblasbare Kuppel anzulagern und so eine wirklich stabile, schützende Struktur zu erhalten. Das Design ist Foster + Partners zufolge geeignet, Schutz vor Meteoriten, Gammastrahlung und starken Temperaturschwankungen, wie sie auf weiten Teilen der Mondoberfläche üblich sind, zu bieten. Die Struktur setzt dabei auf einen hohlen zellularen Aufbau ähnlich Schaumstoff. Das soll strukturelle Stärke sicherstellen, ohne viel Bindemittel zu erfordern. Der Bau soll nahe dem Mond-Südpol erfolgen, da hier praktisch ständig Licht ist und sich Temperaturschwankungen in Grenzen halten.
Derartige 3D-Drucktechnologie soll überhaupt die Eroberung des Weltraums vorantreiben. Darauf setzt freilich nicht nur die ESA, und die potenziellen Anwendungsgebiete sind vielfältig. Die NASA beispielsweise will Raumschiffen die Rückkehr zur Erde dank Regolith-gedruckter Hitzeschilde ermöglichen une kürzlich vom Unternehmen Deep Space Industries vorgestellte Pläne für den Asteroiden-Berbau wiederum sehen vor, dass langfristig Ersatz- und Bauteile im Weltraum gedruckt werden.
Forscher bauen neuartigen 3D-Mikrochip
Veröffentlicht am 31.01.2013 21:07:10
Cambridge - Forscher der University of Cambridge haben einen neuartigen Speicherchip gebaut, bei dem Information in drei statt nur zwei Dimensionen fließt. Das stellt deutlich effizientere Elektronik in Aussicht. "Heutige Chips sind in der dritten Dimension sehr verschwenderisch - das Gehäuse ist Millimeter dick, aber es gibt nur eine Schicht aktiver Komponenten im Chip, die nur einige Mikrometer Dicke ausmachen", erklärt Russel Cowburn, Physikprofessor. Der neue Ansatz verspricht Mikrochips, die innen viel mehr speichern können, ohne nach außen größer zu werden.
Die im Magazin Nature vorgestellte Entwicklung kombiniert dazu Spintronik, bei der Information nicht in der Ladung, sondern dem Spin von Elektronen gespeichert wird, mit einem speziellen Aufbau. Dieser kommt dank funktionellen Materialschichten ohne Transistoren aus, um Daten zwischen verschiedenen Ebenen des Chips zu verschieben. "Unser Zugang bedeutet nur einen geringen Kostenzuwachs pro Schicht", betont dabei Cowburn. Das sei ein Vorteil gegenüber anderen 3D-Chipkonzepten, bei denen die Kosten mit der Zahl der Ebenen deutlich steigt.
Um bei einem dreidimensionalen Chip Daten zwischen den einzelnen Ebenen zu verschieben, wäre normalerweise eine Reihe von Transistoren nötig. Doch die damit verbundene Komplexität und der Platzbedarf würde die Vorteile des Übergangs zum 3D-Aufbau weitgehend zunichte machen, so die Forscher. Daher setzen sie stattdessen auf einen neuen, experimentellen Ansatz namens "Sputtering". Dabei haben sie auf einem Silizium-Chip wenige Atome dicke Lagen aus drei Materialien aufgebaut. Kobalt- und Platinatome dienen dabei zum Speichern digitaler Information, während Ruthenium-Atome sie zwischen verschiedenen Schichten weiterleiten.
Dass so das Material die Funktion von Transistoren übernimmt, führt unter anderem dazu, dass die Entwicklung sehr kompakt ausfällt. "Unser heute veröffentlichter Demonstrator-Chip hat elf funktionelle Lagen, die insgesamt nur 20 Nanometer dick sind", so Cowburn. Das Gehäuse müsste somit nicht dicker ausfallen als bei aktuellen Mikrochips, obwohl viel mehr Daten gespeichert werden könnten. Zwar sind Platin und Ruthenium relativ teure Elemente, doch auch das macht dank des neuen Konstruktionsprinzips wenig aus. "Wenn man nur wenige Atome braucht, kann man günstig viele Chips fertigen", erklärt der Pysiker.
Der aktuell vorgestellte Spintronik-Chip ähnelt zwar am ehesten einem RAM-Baustein, das Konstruktionsprinzip sollte dem Cambridge-Team zufolge aber auch für andere Elektronikelemente geeignet sein. "Es kann gut sein, dass die ersten realweltlichen Anwendungen nicht im Bereich Speicher liegen, sondern anderswo", meint Cowburn. Als Beispiel nennt er den medizinischen Bereich. Dem Physiker zufolge arbeitet man an verschiedenen Ansätzen, die Entwicklung wirklich auf den Markt zu bringen. "Ich hoffe, dass wir in den nächsten paar Jahren etwas herausbringen."
Veröffentlicht am 31.01.2013 21:07:10
Cambridge - Forscher der University of Cambridge haben einen neuartigen Speicherchip gebaut, bei dem Information in drei statt nur zwei Dimensionen fließt. Das stellt deutlich effizientere Elektronik in Aussicht. "Heutige Chips sind in der dritten Dimension sehr verschwenderisch - das Gehäuse ist Millimeter dick, aber es gibt nur eine Schicht aktiver Komponenten im Chip, die nur einige Mikrometer Dicke ausmachen", erklärt Russel Cowburn, Physikprofessor. Der neue Ansatz verspricht Mikrochips, die innen viel mehr speichern können, ohne nach außen größer zu werden.
Die im Magazin Nature vorgestellte Entwicklung kombiniert dazu Spintronik, bei der Information nicht in der Ladung, sondern dem Spin von Elektronen gespeichert wird, mit einem speziellen Aufbau. Dieser kommt dank funktionellen Materialschichten ohne Transistoren aus, um Daten zwischen verschiedenen Ebenen des Chips zu verschieben. "Unser Zugang bedeutet nur einen geringen Kostenzuwachs pro Schicht", betont dabei Cowburn. Das sei ein Vorteil gegenüber anderen 3D-Chipkonzepten, bei denen die Kosten mit der Zahl der Ebenen deutlich steigt.
Um bei einem dreidimensionalen Chip Daten zwischen den einzelnen Ebenen zu verschieben, wäre normalerweise eine Reihe von Transistoren nötig. Doch die damit verbundene Komplexität und der Platzbedarf würde die Vorteile des Übergangs zum 3D-Aufbau weitgehend zunichte machen, so die Forscher. Daher setzen sie stattdessen auf einen neuen, experimentellen Ansatz namens "Sputtering". Dabei haben sie auf einem Silizium-Chip wenige Atome dicke Lagen aus drei Materialien aufgebaut. Kobalt- und Platinatome dienen dabei zum Speichern digitaler Information, während Ruthenium-Atome sie zwischen verschiedenen Schichten weiterleiten.
Dass so das Material die Funktion von Transistoren übernimmt, führt unter anderem dazu, dass die Entwicklung sehr kompakt ausfällt. "Unser heute veröffentlichter Demonstrator-Chip hat elf funktionelle Lagen, die insgesamt nur 20 Nanometer dick sind", so Cowburn. Das Gehäuse müsste somit nicht dicker ausfallen als bei aktuellen Mikrochips, obwohl viel mehr Daten gespeichert werden könnten. Zwar sind Platin und Ruthenium relativ teure Elemente, doch auch das macht dank des neuen Konstruktionsprinzips wenig aus. "Wenn man nur wenige Atome braucht, kann man günstig viele Chips fertigen", erklärt der Pysiker.
Der aktuell vorgestellte Spintronik-Chip ähnelt zwar am ehesten einem RAM-Baustein, das Konstruktionsprinzip sollte dem Cambridge-Team zufolge aber auch für andere Elektronikelemente geeignet sein. "Es kann gut sein, dass die ersten realweltlichen Anwendungen nicht im Bereich Speicher liegen, sondern anderswo", meint Cowburn. Als Beispiel nennt er den medizinischen Bereich. Dem Physiker zufolge arbeitet man an verschiedenen Ansätzen, die Entwicklung wirklich auf den Markt zu bringen. "Ich hoffe, dass wir in den nächsten paar Jahren etwas herausbringen."
Rekord: Erfolgreich eine Mio. Rechenkerne genutzt
Veröffentlicht am 31.01.2013 21:07:10
Livermore/Stanford - Forscher vom Center for Turbulence Research der Stanford University können einen Supercomputing-Meilenstein vermelden. Sie haben erstmals erfolgreich die Leistung von einer Mio. Rechenkernen genutzt, um eine komplexe strömungsdynamische Berechnung durchzuführen. Die Rekord-Berechnung diente dazu vorherzusagen, wie genau eine der lautesten vom Menschen gefertigte Lärmquelle klingt: ein Düsentriebwerk eines Überschall-Jets. Das soll beispielsweise leisere Triebwerke ermöglichen.
Dass dieses Kunststück gelungen ist, ist beachtlich, da es ein komplexes Problem darstellt, reibungslos mit so so vielen Rechenkernen zu arbeiten. "Die Herausforderung liegt im Bereich Parallel Computing, ob die Skalierbarkeit bei so vielen Cores gegeben ist", meint Eduard Mehofer von der Scientific-Computing-Gruppe der Universität Wien. Zum Einsatz kam dabei der IBM-Superrechner Sequia am Lawrence Livermore National Laboratory. Der mit November 2012 zweitstärkste Supercomputer der Welt ist bislang der einzige, der überhaupt über mehr als eine Mio. Rechenkerne verfügt.
"Numerische strömungsdynamische Simulationen sind unglaublich komplex", sagt CTR-Leiter Parviz Moin. Erst Supercomputer mit hunderttausenden Rechenkernen machen es überhaupt möglich, die Lärmentwicklung bei Düsentriebwerken sinnvoll zu modellieren. Da sich in der Simulation Wellen ausbreiten, ist dabei eine präzise Abstimmung aller Teile des Computers erforderlich - womit die Berechnung selbst mit mehr Rechenkernen zum immer schwierigeren Problem wird. Im Bereich einer Mio. Kerne können dabei harmlos wirkende Code-Teile zum Flaschenhals werden, heißt es aus Stanford.
"Da die Anzahl der Cores ständig wachsen wird, kann man mit Sequoia 'Machbarkeitsstudien' durchfuhren, die in Zukunft an Bedeutung gewinnen werden", bestätigt Mehofer. Die aktuelle Arbeit sei zwar nicht unbedingt als großer Durchbruch zu werten, da offenbar keine wirklich neuen Techniken daraus wurden. "Es ist aber ein schöner Erfolg und eben ein Meilenstein", so der Experte. Grundsätzliche könnten solche Arbeiten auch helfen zu verstehen, wie man mit Hardware-Fehlern während des Programmlaufes umgehen kann. Diese werden nämlich bei so vielen Kernen aufgrund der Menge an Elektronik immer wahrscheinlicher.
Das Team um den CTR-Forscher Joseph Nichols konnte jedenfalls in den vergangenen Wochen die letzten nötigen Korrekturen an ihrem Simulations-Code vornehmen, um ein stabiles Laufen auch jenseits der Eine-Mio.-Kern-Marke sicherzustellen. Damit werden wesentlich schnellere strömungsdynamische Simulationen möglich, wovon letztlich eine breite Öffentlichkeit profitieren soll. Denn eine präzise Vorhersage, wie ein Düsentriebwerk klingen wird und wie laut es wäre, kann helfen, die Konstruktion so zu optimieren, dass die Lärmentwicklung minimiert wird. Das stellt leisere Flugzeuge in Aussicht, wovon beispielsweise Anrainer in Einflugschneisen profitieren würden.
Veröffentlicht am 31.01.2013 21:07:10
Livermore/Stanford - Forscher vom Center for Turbulence Research der Stanford University können einen Supercomputing-Meilenstein vermelden. Sie haben erstmals erfolgreich die Leistung von einer Mio. Rechenkernen genutzt, um eine komplexe strömungsdynamische Berechnung durchzuführen. Die Rekord-Berechnung diente dazu vorherzusagen, wie genau eine der lautesten vom Menschen gefertigte Lärmquelle klingt: ein Düsentriebwerk eines Überschall-Jets. Das soll beispielsweise leisere Triebwerke ermöglichen.
Dass dieses Kunststück gelungen ist, ist beachtlich, da es ein komplexes Problem darstellt, reibungslos mit so so vielen Rechenkernen zu arbeiten. "Die Herausforderung liegt im Bereich Parallel Computing, ob die Skalierbarkeit bei so vielen Cores gegeben ist", meint Eduard Mehofer von der Scientific-Computing-Gruppe der Universität Wien. Zum Einsatz kam dabei der IBM-Superrechner Sequia am Lawrence Livermore National Laboratory. Der mit November 2012 zweitstärkste Supercomputer der Welt ist bislang der einzige, der überhaupt über mehr als eine Mio. Rechenkerne verfügt.
"Numerische strömungsdynamische Simulationen sind unglaublich komplex", sagt CTR-Leiter Parviz Moin. Erst Supercomputer mit hunderttausenden Rechenkernen machen es überhaupt möglich, die Lärmentwicklung bei Düsentriebwerken sinnvoll zu modellieren. Da sich in der Simulation Wellen ausbreiten, ist dabei eine präzise Abstimmung aller Teile des Computers erforderlich - womit die Berechnung selbst mit mehr Rechenkernen zum immer schwierigeren Problem wird. Im Bereich einer Mio. Kerne können dabei harmlos wirkende Code-Teile zum Flaschenhals werden, heißt es aus Stanford.
"Da die Anzahl der Cores ständig wachsen wird, kann man mit Sequoia 'Machbarkeitsstudien' durchfuhren, die in Zukunft an Bedeutung gewinnen werden", bestätigt Mehofer. Die aktuelle Arbeit sei zwar nicht unbedingt als großer Durchbruch zu werten, da offenbar keine wirklich neuen Techniken daraus wurden. "Es ist aber ein schöner Erfolg und eben ein Meilenstein", so der Experte. Grundsätzliche könnten solche Arbeiten auch helfen zu verstehen, wie man mit Hardware-Fehlern während des Programmlaufes umgehen kann. Diese werden nämlich bei so vielen Kernen aufgrund der Menge an Elektronik immer wahrscheinlicher.
Das Team um den CTR-Forscher Joseph Nichols konnte jedenfalls in den vergangenen Wochen die letzten nötigen Korrekturen an ihrem Simulations-Code vornehmen, um ein stabiles Laufen auch jenseits der Eine-Mio.-Kern-Marke sicherzustellen. Damit werden wesentlich schnellere strömungsdynamische Simulationen möglich, wovon letztlich eine breite Öffentlichkeit profitieren soll. Denn eine präzise Vorhersage, wie ein Düsentriebwerk klingen wird und wie laut es wäre, kann helfen, die Konstruktion so zu optimieren, dass die Lärmentwicklung minimiert wird. Das stellt leisere Flugzeuge in Aussicht, wovon beispielsweise Anrainer in Einflugschneisen profitieren würden.
IBM schickt KI Watson an die Uni
Veröffentlicht am 31.01.2013 21:06:55
IBM hat bekannt gegeben, dass es sein KI-Programm Watson, das besonders als Quizshow-Kandidat berühmt geworden ist, an die Hochschule schickt. Der Konzern stellt dem Rensselaer Polytechnic Institute (RPI) als erster Uni weltweit eine Version des kognitiven Systems zur Verfügung. Die Arbeit mit dem IBM-System soll dort die Forschung auf diesem Gebiet fördern und Studenten Erfahrung auf dem Gebiet der Analyse gewaltiger Datenberge bieten. Zudem baut das Unternehmen darauf, dass auch Watson selbst von dem Uni-Aufenthalt profitiert, beispielsweise, weil sich dem Programm neue Datenquellen für die Suche nach Antworten erschließen.
IBMs Watson ist ein kognitives System, das menschliche Sprache interpretieren und daher auf gestellte Fragen passende Antworten suchen kann. Die bekannteste Demonstration seiner Fähigkeiten war ein Antreten gegen menschliche Rekordgewinner bei der US-Quizshow Jeopardy im Februar 2011, bei der das IBM-System einen klaren Sieg davon tragen konnte. Doch gibt es gelegentlich auch kleine Rückschläge - beispielsweise, dass Watson sich aus dem Urban Dictionary zwar ein Verständnis von Slang-Begriffen aber auch eine unflätige Ausdrucksweise aneignen konnte.
Am RPI wird nun ein Watson-System installiert, dass mit 15 Terabyte Festplattenspeicher etwa so viel Information verwalten kann wie jene Version, die den Jeopardy-Erfolg einfahren konnte. Da der Lehrkörper der Universität Experten in Bereichen wie Web-Wissenschaften, Big Data und Künstliche Intelligenz umfasst, geht IBM davon aus, dass Watson an der Hochschule einiges lernen kann. Ziel des Unternehmens ist, durch die Arbeit mit den Uni-Wissenschaftlern die kognitiven Fähigkeiten des Systems zu verbessern und die Menge und Art der Daten, die Watson bei der Suche nach Antworten zur Verfügung steht, zu erweitern.
Veröffentlicht am 31.01.2013 21:06:55
IBM hat bekannt gegeben, dass es sein KI-Programm Watson, das besonders als Quizshow-Kandidat berühmt geworden ist, an die Hochschule schickt. Der Konzern stellt dem Rensselaer Polytechnic Institute (RPI) als erster Uni weltweit eine Version des kognitiven Systems zur Verfügung. Die Arbeit mit dem IBM-System soll dort die Forschung auf diesem Gebiet fördern und Studenten Erfahrung auf dem Gebiet der Analyse gewaltiger Datenberge bieten. Zudem baut das Unternehmen darauf, dass auch Watson selbst von dem Uni-Aufenthalt profitiert, beispielsweise, weil sich dem Programm neue Datenquellen für die Suche nach Antworten erschließen.
IBMs Watson ist ein kognitives System, das menschliche Sprache interpretieren und daher auf gestellte Fragen passende Antworten suchen kann. Die bekannteste Demonstration seiner Fähigkeiten war ein Antreten gegen menschliche Rekordgewinner bei der US-Quizshow Jeopardy im Februar 2011, bei der das IBM-System einen klaren Sieg davon tragen konnte. Doch gibt es gelegentlich auch kleine Rückschläge - beispielsweise, dass Watson sich aus dem Urban Dictionary zwar ein Verständnis von Slang-Begriffen aber auch eine unflätige Ausdrucksweise aneignen konnte.
Am RPI wird nun ein Watson-System installiert, dass mit 15 Terabyte Festplattenspeicher etwa so viel Information verwalten kann wie jene Version, die den Jeopardy-Erfolg einfahren konnte. Da der Lehrkörper der Universität Experten in Bereichen wie Web-Wissenschaften, Big Data und Künstliche Intelligenz umfasst, geht IBM davon aus, dass Watson an der Hochschule einiges lernen kann. Ziel des Unternehmens ist, durch die Arbeit mit den Uni-Wissenschaftlern die kognitiven Fähigkeiten des Systems zu verbessern und die Menge und Art der Daten, die Watson bei der Suche nach Antworten zur Verfügung steht, zu erweitern.
Display-Zukunft: Interaktive OLED-Fingernägel
Veröffentlicht am 31.01.2013 21:06:33
Taipeh - Im Bereich der Display-Technologie schreitet der Fortschritt derzeit besonders rasant voran. Wohin die Reise gehen könnte, zeigt ein innovatives Beispiel aus Taiwan. Dort haben Computerwissenschaftler nun ein Projekt gestartet, das besonders interessante neue Anwendungsmöglichkeiten für organische Leuchtdioden (OLEDs) ausloten soll. Eine Kernidee dabei ist beispielsweise das Auftragen von leuchtenden Dünnschichtbauelementen auf Fingernägel. Diese verwandeln sich dadurch in interaktive Bildschirme, auf denen die User dann etwa wichtige Informationen ablesen oder die aktuelle MP3-Wiedergabe steuern können.
Für Projektleiter Chao-Huai Su und seine Teamkollegen an der National Taiwan University in Taipeh könnten mit OLEDs bestückte Fingernägel in erster Line drei unterschiedliche Aufgaben erfüllen: Erstens könnten sie als Erweiterungs-Screen eingesetzt werden, um Inhalte anderer Bildschirme zu ergänzen oder vergrößert darzustellen und so die Steuerung kleiner Schaltflächen bzw. das Lesen kleiner Schriften zu erleichtern. Zweitens könnten sie dazu genutzt werden, um etwa portable Geräte wie MP3-Player zu steuern. Zu guter Letzt sollen es die winzigen Elemente in Kombination mit einem Accelerometer auch möglich machen, bestimmte Inhalte anzuzeigen, die von Gesten oder Fingerbewegung der User gesteuert werden.
Wie genau derartige Anwendungen umgesetzt werden sollen, darüber sind sich aber gegenwärtig auch die taiwanesischen Forscher noch nicht im Klaren. Ihre Ideen rund um interaktive OLED-Fingernägel, die im April auf einer Konferenz in Paris erstmals der breiteren Öffentlichkeit vorgestellt werden sollen, sind bislang ausschließlich theoretischer Natur. Zur Veranschaulichung existiert bislang lediglich ein klobiges, 2,5 Zentimeter großes OLED-Display, das knapp einen halben Zentimeter dick ist und mittels Ring getragen werden kann.
Dass die Integration flexibler OLED-Displays in verschiedene Alltagsgegenstände zahlreiche besonders kreative Anwendungsmöglichkeiten bietet, hat der japanische Konzern Futaba bereits im Oktober vergangenen Jahres bewiesen. Der Display-Hersteller hatte damals mit dem Prototyp einer entsprechend ausgerüsteten Armbanduhr für Aufsehen gesorgt, die sich mit einer Dicke von 0,22 Millimetern problemlos um ein Handgelenk wickeln lässt. Laut Futuba soll die verwendete Technologie bereits serienreif sein, eine Massenproduktion wird es aber nicht geben.
Veröffentlicht am 31.01.2013 21:06:33
Taipeh - Im Bereich der Display-Technologie schreitet der Fortschritt derzeit besonders rasant voran. Wohin die Reise gehen könnte, zeigt ein innovatives Beispiel aus Taiwan. Dort haben Computerwissenschaftler nun ein Projekt gestartet, das besonders interessante neue Anwendungsmöglichkeiten für organische Leuchtdioden (OLEDs) ausloten soll. Eine Kernidee dabei ist beispielsweise das Auftragen von leuchtenden Dünnschichtbauelementen auf Fingernägel. Diese verwandeln sich dadurch in interaktive Bildschirme, auf denen die User dann etwa wichtige Informationen ablesen oder die aktuelle MP3-Wiedergabe steuern können.
Für Projektleiter Chao-Huai Su und seine Teamkollegen an der National Taiwan University in Taipeh könnten mit OLEDs bestückte Fingernägel in erster Line drei unterschiedliche Aufgaben erfüllen: Erstens könnten sie als Erweiterungs-Screen eingesetzt werden, um Inhalte anderer Bildschirme zu ergänzen oder vergrößert darzustellen und so die Steuerung kleiner Schaltflächen bzw. das Lesen kleiner Schriften zu erleichtern. Zweitens könnten sie dazu genutzt werden, um etwa portable Geräte wie MP3-Player zu steuern. Zu guter Letzt sollen es die winzigen Elemente in Kombination mit einem Accelerometer auch möglich machen, bestimmte Inhalte anzuzeigen, die von Gesten oder Fingerbewegung der User gesteuert werden.
Wie genau derartige Anwendungen umgesetzt werden sollen, darüber sind sich aber gegenwärtig auch die taiwanesischen Forscher noch nicht im Klaren. Ihre Ideen rund um interaktive OLED-Fingernägel, die im April auf einer Konferenz in Paris erstmals der breiteren Öffentlichkeit vorgestellt werden sollen, sind bislang ausschließlich theoretischer Natur. Zur Veranschaulichung existiert bislang lediglich ein klobiges, 2,5 Zentimeter großes OLED-Display, das knapp einen halben Zentimeter dick ist und mittels Ring getragen werden kann.
Dass die Integration flexibler OLED-Displays in verschiedene Alltagsgegenstände zahlreiche besonders kreative Anwendungsmöglichkeiten bietet, hat der japanische Konzern Futaba bereits im Oktober vergangenen Jahres bewiesen. Der Display-Hersteller hatte damals mit dem Prototyp einer entsprechend ausgerüsteten Armbanduhr für Aufsehen gesorgt, die sich mit einer Dicke von 0,22 Millimetern problemlos um ein Handgelenk wickeln lässt. Laut Futuba soll die verwendete Technologie bereits serienreif sein, eine Massenproduktion wird es aber nicht geben.
Schwingungssensoren knacken Handy-Codes
Veröffentlicht am 31.01.2013 21:06:18
Swarthmore/Marlow - Gesammelte Daten von Smartphones können mit Hilfe von Schwingungssensoren das Knacken von PIN-Codes und Touchscreen-Mustern erleichtern, belegen Forscher des Swarthmore College http://swarthmore.edu . Die Sensoren sammeln diese Daten demnach einfacher als heruntergeladene Apps, wofür Nutzer grundsätzlich keine Genehmigung erteilen müssen. Für die Untersuchung wurde ein Sensor verwendet, der Bewegungen am Handy auf drei Arten - Seite zur Seite, vorwärts und rückwärts sowie hinauf und hinunter - erfasst.
Weniger effektiv funktioniert die Software während der Nutzer in Bewegung ist, da mehr Störeffekte mitspielen und Muster zum Freischalten schwieriger zu manifestieren sind. Nach fünfmaligem Raten erkennt die Software PIN-Codes bereits mit einer Wahrscheinlichkeit von 43 Prozent. Das Erfassen von Touchscreen-Mustern hingegen liegt bei einer Wahrscheinlichkeit von 73 Prozent.
"iOS und Android sind derzeit Marktführer und haben teilweise grundlegende Unterschiede in ihren Sicherheitsansätzen", erläutert Rik Ferguson, Senior Security Advisor bei Trend Micro http://trendmicro.com , im Interview. Sie funktionieren jedoch in dem Sinne gleich, als dass die Apps über die integrierte Sandbox laufen, so der Experte.
"Sicherheitsdienste müssen ihre Technologien jedoch noch weiterentwickeln, um mehr mobile Sicherheit zu gewährleisten, während Smartphone-Hersteller wie Apple oder Samsung ihre Betriebssysteme perfektionieren müssen", fordert Ferguson.
Das mobile Internet wird im Vergleich zum konventionellen Computer per Hand genutzt, was dazu führt, dass persönliche Informationen an die Sensoren weitergegeben werden. "Eine 100-prozentige Sicherheit für mobile Geräte gibt es nicht", stellt Ferguson klar. Kriminelle finden demnach auch künftig ihren Weg, Profit aus Malware zu schlagen. Für dieses Jahr wird ein Höchstwert von über einer Mio. schädlichen Apps erwartet.
Der Experte rät Handybesitzern, sich ihrer Eigenverantwortung bewusst zu werden. "Man bekommt nichts geschenkt und versteckte 'special free gifts' sollten kritisch hinterfragt werden", so der Spezialist abschließend.
Veröffentlicht am 31.01.2013 21:06:18
Swarthmore/Marlow - Gesammelte Daten von Smartphones können mit Hilfe von Schwingungssensoren das Knacken von PIN-Codes und Touchscreen-Mustern erleichtern, belegen Forscher des Swarthmore College http://swarthmore.edu . Die Sensoren sammeln diese Daten demnach einfacher als heruntergeladene Apps, wofür Nutzer grundsätzlich keine Genehmigung erteilen müssen. Für die Untersuchung wurde ein Sensor verwendet, der Bewegungen am Handy auf drei Arten - Seite zur Seite, vorwärts und rückwärts sowie hinauf und hinunter - erfasst.
Weniger effektiv funktioniert die Software während der Nutzer in Bewegung ist, da mehr Störeffekte mitspielen und Muster zum Freischalten schwieriger zu manifestieren sind. Nach fünfmaligem Raten erkennt die Software PIN-Codes bereits mit einer Wahrscheinlichkeit von 43 Prozent. Das Erfassen von Touchscreen-Mustern hingegen liegt bei einer Wahrscheinlichkeit von 73 Prozent.
"iOS und Android sind derzeit Marktführer und haben teilweise grundlegende Unterschiede in ihren Sicherheitsansätzen", erläutert Rik Ferguson, Senior Security Advisor bei Trend Micro http://trendmicro.com , im Interview. Sie funktionieren jedoch in dem Sinne gleich, als dass die Apps über die integrierte Sandbox laufen, so der Experte.
"Sicherheitsdienste müssen ihre Technologien jedoch noch weiterentwickeln, um mehr mobile Sicherheit zu gewährleisten, während Smartphone-Hersteller wie Apple oder Samsung ihre Betriebssysteme perfektionieren müssen", fordert Ferguson.
Das mobile Internet wird im Vergleich zum konventionellen Computer per Hand genutzt, was dazu führt, dass persönliche Informationen an die Sensoren weitergegeben werden. "Eine 100-prozentige Sicherheit für mobile Geräte gibt es nicht", stellt Ferguson klar. Kriminelle finden demnach auch künftig ihren Weg, Profit aus Malware zu schlagen. Für dieses Jahr wird ein Höchstwert von über einer Mio. schädlichen Apps erwartet.
Der Experte rät Handybesitzern, sich ihrer Eigenverantwortung bewusst zu werden. "Man bekommt nichts geschenkt und versteckte 'special free gifts' sollten kritisch hinterfragt werden", so der Spezialist abschließend.
OPSWAT-Zertifizierung für IKARUS mobile.security
Veröffentlicht am 31.01.2013 21:05:55
Mobile Endgeräte wie Smartphones und Tablets finden immer tieferen Zugang in unser Privat- und Geschäftsleben: Mit den Möglichkeiten, sensible Daten zu verarbeiten, Zahlungen zu tätigen oder vertrauliche Informationen zu speichern, nehmen auch die Bedrohungsbilder für mobile Betriebssysteme zu. Security-Apps sind daher unverzichtbar geworden, und besonders im Unternehmensbereich wird die Möglichkeit, diese in bestehende Systeme zu integrieren, immer entscheidender.
OPSWAT hat daher sein OESIS Mobile SDK for Android erweitert und eine neue Kategorie zur Zertifizierung von Android-Apps eingerichtet, die die Kompatibilität mit führenden SSL VPN und NAC-Lösungen, beispielsweise von Juniper, Cisco, Citrix, F5 und vielen anderen, überprüft. Das Update erleichtert es System Administratoren, den Einsatz von Android-basierten Endgeräten in Unternehmensnetzwerken zu kontrollieren und zu verwalten.
IKARUS mobile.security zählt zu den ersten OPSWAT-zertifizierten Android-Apps und schützt mobile Endgeräte daher nicht nur wirkungsvoll vor Viren, Trojanern, Spyware, Adware und Co., sondern unterstützt auch das Finden und Identifizieren der App über das OESIS Mobile SDK for Android.
"Unsere Android-App IKARUS mobile.security ist sowohl für den Endnutzer, der sicher mailen, surfen und Online Banking verwenden will, geeignet, als auch für den Geschäftskunden, der außerdem vertrauliche Kundendaten, Benutzerinformationen und Dokumente schützen muss: IKARUS erleichtert System-Administratoren das unverzichtbare Sicherheitsmanagement über alle in ihrem Netzwerk verwendeten Endgeräte!", so IKARUS-CEO Joe Pichlmayr.
Veröffentlicht am 31.01.2013 21:05:55
Mobile Endgeräte wie Smartphones und Tablets finden immer tieferen Zugang in unser Privat- und Geschäftsleben: Mit den Möglichkeiten, sensible Daten zu verarbeiten, Zahlungen zu tätigen oder vertrauliche Informationen zu speichern, nehmen auch die Bedrohungsbilder für mobile Betriebssysteme zu. Security-Apps sind daher unverzichtbar geworden, und besonders im Unternehmensbereich wird die Möglichkeit, diese in bestehende Systeme zu integrieren, immer entscheidender.
OPSWAT hat daher sein OESIS Mobile SDK for Android erweitert und eine neue Kategorie zur Zertifizierung von Android-Apps eingerichtet, die die Kompatibilität mit führenden SSL VPN und NAC-Lösungen, beispielsweise von Juniper, Cisco, Citrix, F5 und vielen anderen, überprüft. Das Update erleichtert es System Administratoren, den Einsatz von Android-basierten Endgeräten in Unternehmensnetzwerken zu kontrollieren und zu verwalten.
IKARUS mobile.security zählt zu den ersten OPSWAT-zertifizierten Android-Apps und schützt mobile Endgeräte daher nicht nur wirkungsvoll vor Viren, Trojanern, Spyware, Adware und Co., sondern unterstützt auch das Finden und Identifizieren der App über das OESIS Mobile SDK for Android.
"Unsere Android-App IKARUS mobile.security ist sowohl für den Endnutzer, der sicher mailen, surfen und Online Banking verwenden will, geeignet, als auch für den Geschäftskunden, der außerdem vertrauliche Kundendaten, Benutzerinformationen und Dokumente schützen muss: IKARUS erleichtert System-Administratoren das unverzichtbare Sicherheitsmanagement über alle in ihrem Netzwerk verwendeten Endgeräte!", so IKARUS-CEO Joe Pichlmayr.
Office 2013 setzt voll auf Cloud und Touch
Veröffentlicht am 30.01.2013 01:43:47
Wien - Microsoft hat heute, Dienstag, mit Office 2013 die neueste Version seiner Produktivitätslösung offiziell gestartet. Funktionelle Neuerungen umfassen unter anderem eine PDF-Bearbeitung in Word, eine Referentenansicht für PowerPoint sowie eine umfangreiche Touch-Unterstützung. Das damit verbundene optische Redesign fällt im Vergleich zu Windows 8 für Puristen erfreulich unauffällig aus.
Das klassische lokale Desktop-Paket rückt mit der neuen Version eigentlich in den Hintergrund. Der Fokus liegt bei Microsoft jetzt auch im Privatkunden-Bereich auf Office 365 im Abo-Modell, das in der Version Home Premium mit bis zu fünf Arbeitsplätzen den gesamten Haushalt abdecken soll. Dabei ist die Office-Lösung zudem noch enger mit Microsofts Cloud-Angeboten wie SkyDrive verknüpft ist. Beide Varianten sind ab sofort verfügbar.
Mit dem modernen Informations-Überfluss wird es immer schwerer, sich das Leben effizient einzuteilen. Einer aktuellen MSN-Umfrage zufolge denkt fast die Hälfte der Nutzer, dass sie durch modernen Zugang zu Aufgaben ein bis zwei Stunden täglich sparen könnten. Dabei soll das neue Office helfen, so Alexandra Moser, Leiterin des Geschäftsbereichs Office bei Microsoft Österreich. "Es ist gang und gebe, dass alle Dinge, die wir brauchen, nur einen Klick entfernt sind", betont sie. Genau diesen Komfort verspricht Microsoft insbesondere mit Office 365.
Das Abomodell umfasst dazu nicht nur Lizenzen für bis zu fünf PCs oder Macs, sondern auch "Office on Demand", mit dem sich User Anwendungen bei Bedarf auch auf fremde Rechner holen können. Über ihr Live-Konto haben Nutzer dabei persönliche Einstellungen immer dabei, ebenso ist es möglich, Daten automatisch zwischen lokaler Festplatte und SkyDrive - für den das Abo 20 Gigabyte zusätzlichen Speicher umfasst - zu synchronisieren. Im Gegensatz zur Office-2013-Basisversion umfasst die Abo-Variante zudem Outlook, Access und Publisher. Ein weiterer Anreiz für das neue Modell sind 60 Skype-Freiminuten pro Monat.
Von manchen Cloud-Features wie der Mitnahme von Einstellungen und Online-Speichern können - ein Live-Konto vorausgesetzt - auch Nutzer einer klassischen Desktop-Lizenz profitieren. Dazu zählen auch die nunmehr Touch-fähigen Web Apps, beispielsweise für den Zugriff auf Dokumente vom iPad aus. "Es steigt die Erwartungshaltung, barrierefrei auf Dokumente und Daten zuzugreifen", betont Microsoft-Geschäftsführer Georg Obermeier. Office 2013 bietet daher auch ein übersichtlicheres Interface, aber ohne extremes Redesign und einer gerade für Touch-Tablets wichtigen integrierten Bildschirmtastatur.
Zwar stehen Cloud-Anbindung und Touch-Bedienung im Mittelpunkt, doch wartet die neue Office-Generation auch mit neuen Features auf. So bietet Word neben der PDF-Bearbeitung auch einen Lesemodus, um Dokumente ungestört auf dem ganzen Bildschirm zu lesen. Excel verspricht mittel Schnellanalyse und Diagrammempfehlung eine einfache Datenaufbereitung. PowerPoint hilft mit einfach zugänglichen Designvorlagen beim Erstellen von Präsentationen und verspricht dank einer speziellen Referentenansicht ein souveräneres Vortragen. Outlook lockt unter anderem mit einer bequemeren Vorschau auf Kalender- oder Kontaktdaten während des Verfassens von E-Mails.
Klar ist, dass Microsoft voll im Abo-Fieber ist. Das zeigt die Produkt-Positionierung, nach der Office 365 Home Premium nicht nur ideal für Familien ist, sondern auch für Nutzer, die ständig viele verschiedene Geräte verwenden. Mehr als die Hälfte aller User nutzen regelmäßig drei oder mehr Endgeräte, wie der Konzern betont. Auch Office Starter ist damit Geschichte. "Jeder Kunde, der ein neues Gerät kauft, hat eine 30-Tage-Testlizenz von Home Premium dabei", meint Moser auf Nachfrage. Wer dann nicht überzeugt ist, kann immer noch die kostenlosen Web Apps nutzen.
Dazu kommt, dass sich Einzelplatz-Lizenzen von Office 2013 für manche User schwerlich rentieren werden. So kommt die Basisvariante Home & Student, die nur Word, Excel, PowerPoint und OneNote umfasst, auf 139 Euro. Gerade für Hochschüler lohnt das kaum, denn für sie gibt es Office 365 University um 79 Euro für ein Vier-Jahres-Abo. Die 99 Euro pro Jahr für Office 365 Home Premium wiederum dürften gerade für jene attraktiv sein, die auch Access oder Publisher nutzen. Denn als Einzelplatz-Lizenz gibt es diese Programme nur als Teil von Office 2013 Professional, das auf 539 Euro kommt.
Veröffentlicht am 30.01.2013 01:43:47
Wien - Microsoft hat heute, Dienstag, mit Office 2013 die neueste Version seiner Produktivitätslösung offiziell gestartet. Funktionelle Neuerungen umfassen unter anderem eine PDF-Bearbeitung in Word, eine Referentenansicht für PowerPoint sowie eine umfangreiche Touch-Unterstützung. Das damit verbundene optische Redesign fällt im Vergleich zu Windows 8 für Puristen erfreulich unauffällig aus.
Das klassische lokale Desktop-Paket rückt mit der neuen Version eigentlich in den Hintergrund. Der Fokus liegt bei Microsoft jetzt auch im Privatkunden-Bereich auf Office 365 im Abo-Modell, das in der Version Home Premium mit bis zu fünf Arbeitsplätzen den gesamten Haushalt abdecken soll. Dabei ist die Office-Lösung zudem noch enger mit Microsofts Cloud-Angeboten wie SkyDrive verknüpft ist. Beide Varianten sind ab sofort verfügbar.
Mit dem modernen Informations-Überfluss wird es immer schwerer, sich das Leben effizient einzuteilen. Einer aktuellen MSN-Umfrage zufolge denkt fast die Hälfte der Nutzer, dass sie durch modernen Zugang zu Aufgaben ein bis zwei Stunden täglich sparen könnten. Dabei soll das neue Office helfen, so Alexandra Moser, Leiterin des Geschäftsbereichs Office bei Microsoft Österreich. "Es ist gang und gebe, dass alle Dinge, die wir brauchen, nur einen Klick entfernt sind", betont sie. Genau diesen Komfort verspricht Microsoft insbesondere mit Office 365.
Das Abomodell umfasst dazu nicht nur Lizenzen für bis zu fünf PCs oder Macs, sondern auch "Office on Demand", mit dem sich User Anwendungen bei Bedarf auch auf fremde Rechner holen können. Über ihr Live-Konto haben Nutzer dabei persönliche Einstellungen immer dabei, ebenso ist es möglich, Daten automatisch zwischen lokaler Festplatte und SkyDrive - für den das Abo 20 Gigabyte zusätzlichen Speicher umfasst - zu synchronisieren. Im Gegensatz zur Office-2013-Basisversion umfasst die Abo-Variante zudem Outlook, Access und Publisher. Ein weiterer Anreiz für das neue Modell sind 60 Skype-Freiminuten pro Monat.
Von manchen Cloud-Features wie der Mitnahme von Einstellungen und Online-Speichern können - ein Live-Konto vorausgesetzt - auch Nutzer einer klassischen Desktop-Lizenz profitieren. Dazu zählen auch die nunmehr Touch-fähigen Web Apps, beispielsweise für den Zugriff auf Dokumente vom iPad aus. "Es steigt die Erwartungshaltung, barrierefrei auf Dokumente und Daten zuzugreifen", betont Microsoft-Geschäftsführer Georg Obermeier. Office 2013 bietet daher auch ein übersichtlicheres Interface, aber ohne extremes Redesign und einer gerade für Touch-Tablets wichtigen integrierten Bildschirmtastatur.
Zwar stehen Cloud-Anbindung und Touch-Bedienung im Mittelpunkt, doch wartet die neue Office-Generation auch mit neuen Features auf. So bietet Word neben der PDF-Bearbeitung auch einen Lesemodus, um Dokumente ungestört auf dem ganzen Bildschirm zu lesen. Excel verspricht mittel Schnellanalyse und Diagrammempfehlung eine einfache Datenaufbereitung. PowerPoint hilft mit einfach zugänglichen Designvorlagen beim Erstellen von Präsentationen und verspricht dank einer speziellen Referentenansicht ein souveräneres Vortragen. Outlook lockt unter anderem mit einer bequemeren Vorschau auf Kalender- oder Kontaktdaten während des Verfassens von E-Mails.
Klar ist, dass Microsoft voll im Abo-Fieber ist. Das zeigt die Produkt-Positionierung, nach der Office 365 Home Premium nicht nur ideal für Familien ist, sondern auch für Nutzer, die ständig viele verschiedene Geräte verwenden. Mehr als die Hälfte aller User nutzen regelmäßig drei oder mehr Endgeräte, wie der Konzern betont. Auch Office Starter ist damit Geschichte. "Jeder Kunde, der ein neues Gerät kauft, hat eine 30-Tage-Testlizenz von Home Premium dabei", meint Moser auf Nachfrage. Wer dann nicht überzeugt ist, kann immer noch die kostenlosen Web Apps nutzen.
Dazu kommt, dass sich Einzelplatz-Lizenzen von Office 2013 für manche User schwerlich rentieren werden. So kommt die Basisvariante Home & Student, die nur Word, Excel, PowerPoint und OneNote umfasst, auf 139 Euro. Gerade für Hochschüler lohnt das kaum, denn für sie gibt es Office 365 University um 79 Euro für ein Vier-Jahres-Abo. Die 99 Euro pro Jahr für Office 365 Home Premium wiederum dürften gerade für jene attraktiv sein, die auch Access oder Publisher nutzen. Denn als Einzelplatz-Lizenz gibt es diese Programme nur als Teil von Office 2013 Professional, das auf 539 Euro kommt.
E-Paper löst papierene Haltestellen-Aushänge ab
Veröffentlicht am 30.01.2013 01:43:37
Cambridge - Der Kunststoff-Elektronik-Hersteller Plastic Logic http://plasticlogic.com und der Digital-Signage-Anbieter SERELEC http://serelec.fr haben ein Display entwickelt, das neue Möglichkeiten in Sachen Fahrplaninformation bei öffentlichen Verkehrsmitteln verspricht. Denn es funktioniert problemlos im Freien und verbraucht dank E-Paper-Technologie so wenig Strom, dass die Anbieter es "Zero Energy Display" (ZED) getauft haben. Das ZED wird auf der heute, Dienstag, beginnenden Integrated Systems Show http://iseurope.org der Öffentlichkeit präsentiert und ab dem zweiten Quartal 2013 ausgeliefert.
Jedes ZED besteht aus zwei flexiblen 10,7-Zoll-Panels, die zu einem Display mit 15,4 Zoll Diagonale mit 150 DPI Auflösung zusammengesetzt sind. Die leichtgewichtigen (115 Gramm) Schwarz-Weiß-Displays sehen papierenen Aushängen ähnlich und sollen beispielsweise an Bus- und Straßenbahn- sowie U-Bahn-Haltestellen praktisch deren Funktion als Fahrgastinformation übernehmen. Doch bieten die ZEDs gegenüber altmodischen Papieraushängen den Vorteil, dass die Informationen jederzeit kabellos per Mobilfunk aktualisiert werden kann.
Der Energieverbrauch ist aber minimal. Denn die reflektive Display-Technologie, die Plastic Logic ursprünglich auch für E-Reader nutzen wollte, benötigt lediglich Strom zum Umschalten der Anzeige. Es ist Plastic Logic zufolge also gar kein Problem, die ZEDs einfach nur mit Solarstrom zu betreiben. Die Schilder selbst sind dem Hersteller zufolge bei diversen Lichtverhältnissen inklusive direkter Sonneneinstrahlung lesbar und das auch aus praktisch jedem Blickwinkel. Ein integrierter Temperaturregler wiederum sorgt dafür, dass die Geräte von minus 14 bis plus 50 Grad Celsius funktionieren.
Wenn ab dem zweiten Quartal die ersten ZEDs ausgeliefert werden, sollen sie aber nicht ausschließlich als Fahrplan-Information bei Haltestellen zum Einsatz kommen. Von Anfang an geplant ist auch eine Nutzung für Werbezwecke in großflächigeren Installationen, beispielsweise außen an Bussen oder Straßenbahnen montiert. In Zukunft soll zudem eine Farbversion des Displays folgen, was noch weitere Anwendungsgebiete erschließen soll.
Veröffentlicht am 30.01.2013 01:43:37
Cambridge - Der Kunststoff-Elektronik-Hersteller Plastic Logic http://plasticlogic.com und der Digital-Signage-Anbieter SERELEC http://serelec.fr haben ein Display entwickelt, das neue Möglichkeiten in Sachen Fahrplaninformation bei öffentlichen Verkehrsmitteln verspricht. Denn es funktioniert problemlos im Freien und verbraucht dank E-Paper-Technologie so wenig Strom, dass die Anbieter es "Zero Energy Display" (ZED) getauft haben. Das ZED wird auf der heute, Dienstag, beginnenden Integrated Systems Show http://iseurope.org der Öffentlichkeit präsentiert und ab dem zweiten Quartal 2013 ausgeliefert.
Jedes ZED besteht aus zwei flexiblen 10,7-Zoll-Panels, die zu einem Display mit 15,4 Zoll Diagonale mit 150 DPI Auflösung zusammengesetzt sind. Die leichtgewichtigen (115 Gramm) Schwarz-Weiß-Displays sehen papierenen Aushängen ähnlich und sollen beispielsweise an Bus- und Straßenbahn- sowie U-Bahn-Haltestellen praktisch deren Funktion als Fahrgastinformation übernehmen. Doch bieten die ZEDs gegenüber altmodischen Papieraushängen den Vorteil, dass die Informationen jederzeit kabellos per Mobilfunk aktualisiert werden kann.
Der Energieverbrauch ist aber minimal. Denn die reflektive Display-Technologie, die Plastic Logic ursprünglich auch für E-Reader nutzen wollte, benötigt lediglich Strom zum Umschalten der Anzeige. Es ist Plastic Logic zufolge also gar kein Problem, die ZEDs einfach nur mit Solarstrom zu betreiben. Die Schilder selbst sind dem Hersteller zufolge bei diversen Lichtverhältnissen inklusive direkter Sonneneinstrahlung lesbar und das auch aus praktisch jedem Blickwinkel. Ein integrierter Temperaturregler wiederum sorgt dafür, dass die Geräte von minus 14 bis plus 50 Grad Celsius funktionieren.
Wenn ab dem zweiten Quartal die ersten ZEDs ausgeliefert werden, sollen sie aber nicht ausschließlich als Fahrplan-Information bei Haltestellen zum Einsatz kommen. Von Anfang an geplant ist auch eine Nutzung für Werbezwecke in großflächigeren Installationen, beispielsweise außen an Bussen oder Straßenbahnen montiert. In Zukunft soll zudem eine Farbversion des Displays folgen, was noch weitere Anwendungsgebiete erschließen soll.
Kritischer Datenverlust nimmt zu: Notfall-Datenrettung um 21 Prozent gestiegen
Veröffentlicht am 30.01.2013 01:43:26
Hamburg - Die Zahl der Datenrettungseinsätze hat im vergangenen Jahr erneut deutlich zugenommen. Hochkritische Datenverlustfälle von Unternehmen, die am Wochenende oder über Nacht einen "rund um die Uhr"-Datenrettungseinsatz erforderlich machten, sind 2012 im Vergleich zum Vorjahr um 21 Prozent gestiegen. Dies geht aus der internen Auftragsstatistik des Datenrettungsunternehmens Attingo hervor.
Sehr häufig wird der High Priority Service an Wochenenden, Feiertagen oder während der Betriebsferien zum Jahreswechsel in Anspruch genommen. Diese Peaks kommen nicht von ungefähr. Für die Umstellung der internen IT-Landschaft werden in der Regel Zeiträume gewählt, die den täglichen Arbeitsablauf so wenig wie möglich beeinflussen oder gar zum Stillstand bringen. Doch solche Serverumstellungen verlaufen nicht immer reibungslos. Bereits das Hinzufügen neuer Festplatten in ein bestehendes RAID kann zu Komplikationen führen.
Gerade in solchen Szenarien stellt sich die Frage: Soll eine Notfall-Datenrettung beauftragt werden oder sind die Kosten eines Stillstands geringer? Da die Techniker und Ingenieure bei Attingo im High Priority Service rund um die Uhr an dem Datenrettungsfall arbeiten, ist diese im Vergleich zu einer "normalen" Datenrettung kostenintensiver. Nicht selten sind die Kosten eines Stillstands jedoch deutlich höher. So konnten bei einem mittelständischen Parketthersteller die Daten im Rahmen einer High Priority Datenrettung erfolgreich rekonstruiert werden. Am Sonntagabend ist der Server mit dem ausgefallenen RAID im Labor eingegangen, am Montagmorgen standen die Daten wieder zur Verfügung. Nach Aussagen des Geschäftsführers hätte ein tagelanger Ausfall einen Verlust von mehr als 100.000 Euro Umsatz zur Folge gehabt.
Zugespitzt hat sich die Situation noch dadurch, dass sich auf dem Server mehrere virtuelle Server befanden - so unter anderem die Rechnungsverwaltung sowie der File Server. Dieser Trend, alle Server auf eine oder wenige Maschinen zu reduzieren, hält nach wie vor an. Die Gefahr eines Komplettausfalls steigt dadurch aber auch immens. Es ist daher auch nicht verwunderlich, dass die Zahl der Datenrettungseinsätze "rund um die Uhr" deutlich zugenommen hat. Erschwerend kommt hinzu, dass die tägliche Sicherung von mehreren Terabyte kaum zu realisieren ist. Dies kann durch teure Storage-Clusters zwar gelöst werden, doch oft sprengen die Anschaffungskosten solcher Hardware das Budget.
Wenn es zum Ausfall kommt, wird nicht selten von der Hauseigenen IT versucht, den ausgefallenen Server mit vorhandenen Bordmitteln zum Laufen zu bekommen. Das ist einerseits verständlich, andererseits führt dies nicht selten zu einer "Verschlimmbesserung". Der Aufwand für die Datenrettungsspezialisten steigt in den meisten Fällen dadurch deutlich an. Im gleichen Maße nimmt auch das Risiko zu, dass die Qualität der geretteten Daten aufgrund beschädigter Dateien sinkt. Dies ist besonders verhängnisvoll, wenn mehrere virtuelle Server davon betroffen sind.
Gerade in solchen Situationen ist es nicht leicht, einen kühlen Kopf zu bewahren. Attingo kümmert sich daher um die Abholung der Server beim Kunden wie auch um die Auslieferung nach der Wiederherstellung der Daten. Alle Datenrettungsfälle werden ausschließlich in hauseigenen Reinraumlaboren bearbeitet - allein schon aus datenschutzrechtlichen Gründen. Die Recovery-Quote bei ausgefallenen Server- und RAID-Systemen liegt bei mehr als 92 Prozent. In unter einem Prozent aller Fälle ist eine RAID-Datenrettung aufgrund fataler Schäden an den defekten Festplatten nicht möglich. In den übrigen sieben Prozent der Fälle sind hingegen fatale Selbstversuche die Ursache dafür, dass Daten unwiderruflich verloren gehen.
Die hohe Erfolgsquote des Datenretters resultiert aus der permanenten Forschung und Entwicklung. Durch kontinuierliches Reverse Engineering kann Attingo nahezu jeden RAID-Controller simulieren. Dadurch können die Datenretter in extrem kurzer Zeit auch sehr komplexe Datenrettungsfälle lösen.
Veröffentlicht am 30.01.2013 01:43:26
Hamburg - Die Zahl der Datenrettungseinsätze hat im vergangenen Jahr erneut deutlich zugenommen. Hochkritische Datenverlustfälle von Unternehmen, die am Wochenende oder über Nacht einen "rund um die Uhr"-Datenrettungseinsatz erforderlich machten, sind 2012 im Vergleich zum Vorjahr um 21 Prozent gestiegen. Dies geht aus der internen Auftragsstatistik des Datenrettungsunternehmens Attingo hervor.
Sehr häufig wird der High Priority Service an Wochenenden, Feiertagen oder während der Betriebsferien zum Jahreswechsel in Anspruch genommen. Diese Peaks kommen nicht von ungefähr. Für die Umstellung der internen IT-Landschaft werden in der Regel Zeiträume gewählt, die den täglichen Arbeitsablauf so wenig wie möglich beeinflussen oder gar zum Stillstand bringen. Doch solche Serverumstellungen verlaufen nicht immer reibungslos. Bereits das Hinzufügen neuer Festplatten in ein bestehendes RAID kann zu Komplikationen führen.
Gerade in solchen Szenarien stellt sich die Frage: Soll eine Notfall-Datenrettung beauftragt werden oder sind die Kosten eines Stillstands geringer? Da die Techniker und Ingenieure bei Attingo im High Priority Service rund um die Uhr an dem Datenrettungsfall arbeiten, ist diese im Vergleich zu einer "normalen" Datenrettung kostenintensiver. Nicht selten sind die Kosten eines Stillstands jedoch deutlich höher. So konnten bei einem mittelständischen Parketthersteller die Daten im Rahmen einer High Priority Datenrettung erfolgreich rekonstruiert werden. Am Sonntagabend ist der Server mit dem ausgefallenen RAID im Labor eingegangen, am Montagmorgen standen die Daten wieder zur Verfügung. Nach Aussagen des Geschäftsführers hätte ein tagelanger Ausfall einen Verlust von mehr als 100.000 Euro Umsatz zur Folge gehabt.
Zugespitzt hat sich die Situation noch dadurch, dass sich auf dem Server mehrere virtuelle Server befanden - so unter anderem die Rechnungsverwaltung sowie der File Server. Dieser Trend, alle Server auf eine oder wenige Maschinen zu reduzieren, hält nach wie vor an. Die Gefahr eines Komplettausfalls steigt dadurch aber auch immens. Es ist daher auch nicht verwunderlich, dass die Zahl der Datenrettungseinsätze "rund um die Uhr" deutlich zugenommen hat. Erschwerend kommt hinzu, dass die tägliche Sicherung von mehreren Terabyte kaum zu realisieren ist. Dies kann durch teure Storage-Clusters zwar gelöst werden, doch oft sprengen die Anschaffungskosten solcher Hardware das Budget.
Wenn es zum Ausfall kommt, wird nicht selten von der Hauseigenen IT versucht, den ausgefallenen Server mit vorhandenen Bordmitteln zum Laufen zu bekommen. Das ist einerseits verständlich, andererseits führt dies nicht selten zu einer "Verschlimmbesserung". Der Aufwand für die Datenrettungsspezialisten steigt in den meisten Fällen dadurch deutlich an. Im gleichen Maße nimmt auch das Risiko zu, dass die Qualität der geretteten Daten aufgrund beschädigter Dateien sinkt. Dies ist besonders verhängnisvoll, wenn mehrere virtuelle Server davon betroffen sind.
Gerade in solchen Situationen ist es nicht leicht, einen kühlen Kopf zu bewahren. Attingo kümmert sich daher um die Abholung der Server beim Kunden wie auch um die Auslieferung nach der Wiederherstellung der Daten. Alle Datenrettungsfälle werden ausschließlich in hauseigenen Reinraumlaboren bearbeitet - allein schon aus datenschutzrechtlichen Gründen. Die Recovery-Quote bei ausgefallenen Server- und RAID-Systemen liegt bei mehr als 92 Prozent. In unter einem Prozent aller Fälle ist eine RAID-Datenrettung aufgrund fataler Schäden an den defekten Festplatten nicht möglich. In den übrigen sieben Prozent der Fälle sind hingegen fatale Selbstversuche die Ursache dafür, dass Daten unwiderruflich verloren gehen.
Die hohe Erfolgsquote des Datenretters resultiert aus der permanenten Forschung und Entwicklung. Durch kontinuierliches Reverse Engineering kann Attingo nahezu jeden RAID-Controller simulieren. Dadurch können die Datenretter in extrem kurzer Zeit auch sehr komplexe Datenrettungsfälle lösen.
US-Militär baut selbstzerstörende Elektronik
Veröffentlicht am 30.01.2013 01:43:08
Arlington - Die Defense Advanced Research Projects Agency (DARPA), der Forschungsarm des Pentagons, arbeitet an Elektronik mit Ablaufdatum. Konkret will man im Rahmen des Programms "Vanishing Programmable Resources" (VAPR) Sensoren und andere Geräte entwickeln, die sich unter bestimmten Bedingungen einfach auflösen. Hintergrund dieses Bestrebens ist, dass ausgereifte Elektronik des US-Militärs nach einem Einsatz nicht einfach am Schlachtfeld zurückbleiben soll, wo sie dem Feind für eine etwaige Rückentwicklung in die Hände fallen könnte.
Elektronik in diversen Formen von Funkausrüstung bis hin zu hochentwickelten Sensoren ist aus dem Alltag der US-Streitkräfte nicht mehr wegzudenken und teils einsatzkritisch. Dabei ist gerade militärisches Equipment oft auf Langlebigkeit selbst unter härtesten Bedingungen ausgelegt, was auch seine Nachteile hat. Nach einem Einsatz alle Geräte wieder zu bergen, ist praktisch unmöglich, es bleibt oft funktionsfähige Elektronik auf dem Schlachtfeld zurück. Darin sieht die DARPA eine Gefahr für die technische Überlegenheit des US-Militärs. Denn solche Geräte sind für Feinde potenziell wertvolle Beute, da sie eingehend studiert und rückentwickelt werden können.
VAPR soll Abhilfe schaffen. "DARPA sucht nach einer Möglichkeit, Elektronik zu fertigen, die genau so lange hält wie erforderlich", erklärt Alicia Jackson, Programm-Managerin bei der DARPA. Die Geräte sollen zwar immer noch unter härtesten Bedingungen funktionieren, aber entweder ein vorprogrammiertes Ablaufdatum oder einen Hardware-Killswitch haben. Als Selbstzerstörungs-Auslöser kommen drahtlos übermitteltete Kommandos ebenso in Frage wie eine Reaktion auf bestimmte Umweltbedingungen wie die Temperatur. Jedenfalls soll sich die Elektronik möglichst komplett zersetzen, zumindest aber so weit, dass sie für Finder allenfalls noch Schrottwert hat.
Dass selbstzerstörende Elektronik prinzipiell möglich ist, hat die DARPA bereits im Vorjahr anhand von Prototypen gezeigt, die aus Silizium, Magnesium und Seide bestehen. Wie ein Demo-Video zeigt, löst sich diese Elektronik nach dem Befeuchten mit Wassertropfen auf. Dabei standen aber medizinische Anwendungen im Vordergrund, beispielsweise als implantierbares Bakterizid, das im Körper harmlos zerfällt.
"Jetzt wollen wir eine revolutionäre neue Form der Elektronik für eine Vielzahl an Systemen entwickeln, deren Zerfall nicht von Eintauchen in Wasser abhängig ist", betont Jackson. Wie genau das erreicht werden kann, ist aber noch offen.
(Anmerkung der Redaktion: Vielleicht sollten sich die Herren einmal mit verschiedenen Hardwareherstellern kurzschließen, die scheinen das - zumindest zum Teil - ja schon recht gut zu beherrschen...
)
Veröffentlicht am 30.01.2013 01:43:08
Arlington - Die Defense Advanced Research Projects Agency (DARPA), der Forschungsarm des Pentagons, arbeitet an Elektronik mit Ablaufdatum. Konkret will man im Rahmen des Programms "Vanishing Programmable Resources" (VAPR) Sensoren und andere Geräte entwickeln, die sich unter bestimmten Bedingungen einfach auflösen. Hintergrund dieses Bestrebens ist, dass ausgereifte Elektronik des US-Militärs nach einem Einsatz nicht einfach am Schlachtfeld zurückbleiben soll, wo sie dem Feind für eine etwaige Rückentwicklung in die Hände fallen könnte.
Elektronik in diversen Formen von Funkausrüstung bis hin zu hochentwickelten Sensoren ist aus dem Alltag der US-Streitkräfte nicht mehr wegzudenken und teils einsatzkritisch. Dabei ist gerade militärisches Equipment oft auf Langlebigkeit selbst unter härtesten Bedingungen ausgelegt, was auch seine Nachteile hat. Nach einem Einsatz alle Geräte wieder zu bergen, ist praktisch unmöglich, es bleibt oft funktionsfähige Elektronik auf dem Schlachtfeld zurück. Darin sieht die DARPA eine Gefahr für die technische Überlegenheit des US-Militärs. Denn solche Geräte sind für Feinde potenziell wertvolle Beute, da sie eingehend studiert und rückentwickelt werden können.
VAPR soll Abhilfe schaffen. "DARPA sucht nach einer Möglichkeit, Elektronik zu fertigen, die genau so lange hält wie erforderlich", erklärt Alicia Jackson, Programm-Managerin bei der DARPA. Die Geräte sollen zwar immer noch unter härtesten Bedingungen funktionieren, aber entweder ein vorprogrammiertes Ablaufdatum oder einen Hardware-Killswitch haben. Als Selbstzerstörungs-Auslöser kommen drahtlos übermitteltete Kommandos ebenso in Frage wie eine Reaktion auf bestimmte Umweltbedingungen wie die Temperatur. Jedenfalls soll sich die Elektronik möglichst komplett zersetzen, zumindest aber so weit, dass sie für Finder allenfalls noch Schrottwert hat.
Dass selbstzerstörende Elektronik prinzipiell möglich ist, hat die DARPA bereits im Vorjahr anhand von Prototypen gezeigt, die aus Silizium, Magnesium und Seide bestehen. Wie ein Demo-Video zeigt, löst sich diese Elektronik nach dem Befeuchten mit Wassertropfen auf. Dabei standen aber medizinische Anwendungen im Vordergrund, beispielsweise als implantierbares Bakterizid, das im Körper harmlos zerfällt.
"Jetzt wollen wir eine revolutionäre neue Form der Elektronik für eine Vielzahl an Systemen entwickeln, deren Zerfall nicht von Eintauchen in Wasser abhängig ist", betont Jackson. Wie genau das erreicht werden kann, ist aber noch offen.
(Anmerkung der Redaktion: Vielleicht sollten sich die Herren einmal mit verschiedenen Hardwareherstellern kurzschließen, die scheinen das - zumindest zum Teil - ja schon recht gut zu beherrschen...

AIT positioniert sich erfolgreich in der europäischen Sicherheitsforschung
Veröffentlicht am 30.01.2013 01:42:52
Wien - Auf europäischer Bühne hat sich das AIT Austrian Institute of Technology 2012 in der Sicherheitsforschung als exzellentes Forschungsinstitut etabliert. Dabei verzeichnet es im europäischen Sicherheitsforschungsprogramm (siebentes Rahmenprogramm - FP7) die höchste Erfolgsquote im Vergleich zu anderen europäischen Forschungszentren - mit 43% erfolgreich bewerteter Projekte in der letzten Ausschreibung (Call 5) bzw. 50% in der Ausschreibung davor (Call 4). Alleine aus diesen beiden letzten Ausschreibungen konnte Österreichs größte Forschungsinstitution 6,4 Millionen Euro an Fördergeldern zur Stärkung des Wirtschaftsstandortes Österreich lukrieren. Darüber hinaus erhielt eines der AIT-Projekte die höchste Benotung aller eingereichten Projekte (SECCRIT - SEcure Cloud computing for CRitical infrastructure IT). Insgesamt kommen dem Wirtschaftsstandort Österreich damit im Geschäftsjahr 2012 rund 10 Millionen Euro zugute, die das AIT für die österreichische Sicherheitsforschung im Safety & Security Department akquirieren konnte.
In den letzten Jahren ist es dem AIT gelungen, die Bündelung technologischer Expertisen in wichtigen Anwendungsdomänen der Sicherheitsforschung konsequent mit Marktzielen zu verschränken. Durch die gelebte Kooperationskultur sowie der hohen Kompetenz auf internationalem Niveau besitzt das AIT heute mit dem Safety & Security Department eine herausragende Stellung auf der europäischen und nationalen Bühne für Sicherheitsforschung. Auf diesem internationalen Forschungsparkett geht es um jene Kernthemen, die unsere heutige Gesellschaft und zukünftige Generationen betreffen: zukünftige sichere Informations- und Kommunikationsinfrastrukturen, modernste IT-Systeme für die neuen Anforderungen im Krisen- und Katastrophenmanagement sowie für den Schutz von BürgerInnen und kritischen Infrastrukturen.
Dabei ist es von zentraler Bedeutung, gemeinsam mit jenen zu forschen, die die Forschungsergebnisse dann in der Praxis einsetzen sollen, also öffentlichen und privaten EndnutzerInnen. Um bei modernen und innovativen Sicherheits¬systemen auch die notwendigen hohen gesellschaftlichen Akzeptanzraten zu erreichen, werden die Projekte in enger Zusammenarbeit mit sozial- und rechtswissenschaftlichen Partnern durchgeführt. Diese Voraussetzungen sind auch die Eckpfeiler der erfolgreichen österreichischen Sicherheitsforschungsphilosophie, verkörpert im nationalen Sicherheitsforschungsprogramm KIRAS.
Die erfolgreiche Umsetzung der AIT-Strategie wird besonders durch den EU-Zuschlag beim Projekt "FastPass" unterstrichen, bei dem sich das AIT im internationalen Forschungswettbewerb durchgesetzt hat. In "FastPass" wird ein automatisiertes Grenzkontrollsystem entwickelt, das europaweit an allen Grenzkontrollpunkten von Flughäfen eingesetzt werden kann. Das AIT koordiniert damit eines der größten europäischen Sicherheitsforschungsprojekte mit insgesamt 27 europäischen Partnern, bestehend aus Wissenschaft, Industrie, Betreibern und öffentlicher Hand, sowie einem Gesamt-Projektvolumen von 11,3 Millionen Euro. Ziel des Projektes ist die Entwicklung eines Grenzkontrollsystems der nächsten Generation, um im Kontext der wachsenden Mobilität in Europa sichere, schnelle und komfortable Grenzkontrollen zu ermöglichen - bei gleichzeitiger Berücksichtigung der wichtigen gesellschaftlichen Akzeptanz und datenschutzrechtlichen Aspekte.
Das im Evaluierungsverfahren am höchsten bewertete AIT-Projekt "SECCRIT" ("SEcure Cloud computing for CRitical infrastructure IT") adressiert die Herausforderungen des derzeit wohl größten Paradigmenwechsels in der Entwicklungsgeschichte der IT. Mit ihm sollen Cloud Computing-Technologien im Hinblick auf Security-Risiken in sensitiven Umgebungen analysiert und Methoden, Technologien und Best Pratices für die Schaffung sicherer, verlässlicher Cloud-Umgebungen für kritische Infrastrukturen entwickelt werden.
Die Grundlage für diesen internationalen Erfolg bildet das nationale Sicherheitsforschungs-Förderprogramm KIRAS (des Bundesministeriums für Verkehr, Innovation und Technologie), aus dem starke nationale Konsortien hervorgehen, die sich aus innovativen und risikobereiten österreichischen Partnerunternehmen zusammensetzen. Über eine Bündelung der verschiedenen Kompetenzen wird jene wichtige kritische Masse erreicht, die eine erfolgreiche Positionierung am wettbewerbsintensiven europäischen Parkett möglich macht.
"Die konsequente Umsetzung der AIT-Forschungsstrategie durch eine nachhaltige Forschungskooperation zwischen Industrie, Wissenschaft, Betreibern und öffentlicher Hand in selektiven Forschungsthemen zeigt, dass wir international eine Vorreiterrolle in den Zukunftsthemen einnehmen können", so Helmut Leopold, Head of Department, AIT Safety & Security Department.
Veröffentlicht am 30.01.2013 01:42:52
Wien - Auf europäischer Bühne hat sich das AIT Austrian Institute of Technology 2012 in der Sicherheitsforschung als exzellentes Forschungsinstitut etabliert. Dabei verzeichnet es im europäischen Sicherheitsforschungsprogramm (siebentes Rahmenprogramm - FP7) die höchste Erfolgsquote im Vergleich zu anderen europäischen Forschungszentren - mit 43% erfolgreich bewerteter Projekte in der letzten Ausschreibung (Call 5) bzw. 50% in der Ausschreibung davor (Call 4). Alleine aus diesen beiden letzten Ausschreibungen konnte Österreichs größte Forschungsinstitution 6,4 Millionen Euro an Fördergeldern zur Stärkung des Wirtschaftsstandortes Österreich lukrieren. Darüber hinaus erhielt eines der AIT-Projekte die höchste Benotung aller eingereichten Projekte (SECCRIT - SEcure Cloud computing for CRitical infrastructure IT). Insgesamt kommen dem Wirtschaftsstandort Österreich damit im Geschäftsjahr 2012 rund 10 Millionen Euro zugute, die das AIT für die österreichische Sicherheitsforschung im Safety & Security Department akquirieren konnte.
In den letzten Jahren ist es dem AIT gelungen, die Bündelung technologischer Expertisen in wichtigen Anwendungsdomänen der Sicherheitsforschung konsequent mit Marktzielen zu verschränken. Durch die gelebte Kooperationskultur sowie der hohen Kompetenz auf internationalem Niveau besitzt das AIT heute mit dem Safety & Security Department eine herausragende Stellung auf der europäischen und nationalen Bühne für Sicherheitsforschung. Auf diesem internationalen Forschungsparkett geht es um jene Kernthemen, die unsere heutige Gesellschaft und zukünftige Generationen betreffen: zukünftige sichere Informations- und Kommunikationsinfrastrukturen, modernste IT-Systeme für die neuen Anforderungen im Krisen- und Katastrophenmanagement sowie für den Schutz von BürgerInnen und kritischen Infrastrukturen.
Dabei ist es von zentraler Bedeutung, gemeinsam mit jenen zu forschen, die die Forschungsergebnisse dann in der Praxis einsetzen sollen, also öffentlichen und privaten EndnutzerInnen. Um bei modernen und innovativen Sicherheits¬systemen auch die notwendigen hohen gesellschaftlichen Akzeptanzraten zu erreichen, werden die Projekte in enger Zusammenarbeit mit sozial- und rechtswissenschaftlichen Partnern durchgeführt. Diese Voraussetzungen sind auch die Eckpfeiler der erfolgreichen österreichischen Sicherheitsforschungsphilosophie, verkörpert im nationalen Sicherheitsforschungsprogramm KIRAS.
Die erfolgreiche Umsetzung der AIT-Strategie wird besonders durch den EU-Zuschlag beim Projekt "FastPass" unterstrichen, bei dem sich das AIT im internationalen Forschungswettbewerb durchgesetzt hat. In "FastPass" wird ein automatisiertes Grenzkontrollsystem entwickelt, das europaweit an allen Grenzkontrollpunkten von Flughäfen eingesetzt werden kann. Das AIT koordiniert damit eines der größten europäischen Sicherheitsforschungsprojekte mit insgesamt 27 europäischen Partnern, bestehend aus Wissenschaft, Industrie, Betreibern und öffentlicher Hand, sowie einem Gesamt-Projektvolumen von 11,3 Millionen Euro. Ziel des Projektes ist die Entwicklung eines Grenzkontrollsystems der nächsten Generation, um im Kontext der wachsenden Mobilität in Europa sichere, schnelle und komfortable Grenzkontrollen zu ermöglichen - bei gleichzeitiger Berücksichtigung der wichtigen gesellschaftlichen Akzeptanz und datenschutzrechtlichen Aspekte.
Das im Evaluierungsverfahren am höchsten bewertete AIT-Projekt "SECCRIT" ("SEcure Cloud computing for CRitical infrastructure IT") adressiert die Herausforderungen des derzeit wohl größten Paradigmenwechsels in der Entwicklungsgeschichte der IT. Mit ihm sollen Cloud Computing-Technologien im Hinblick auf Security-Risiken in sensitiven Umgebungen analysiert und Methoden, Technologien und Best Pratices für die Schaffung sicherer, verlässlicher Cloud-Umgebungen für kritische Infrastrukturen entwickelt werden.
Die Grundlage für diesen internationalen Erfolg bildet das nationale Sicherheitsforschungs-Förderprogramm KIRAS (des Bundesministeriums für Verkehr, Innovation und Technologie), aus dem starke nationale Konsortien hervorgehen, die sich aus innovativen und risikobereiten österreichischen Partnerunternehmen zusammensetzen. Über eine Bündelung der verschiedenen Kompetenzen wird jene wichtige kritische Masse erreicht, die eine erfolgreiche Positionierung am wettbewerbsintensiven europäischen Parkett möglich macht.
"Die konsequente Umsetzung der AIT-Forschungsstrategie durch eine nachhaltige Forschungskooperation zwischen Industrie, Wissenschaft, Betreibern und öffentlicher Hand in selektiven Forschungsthemen zeigt, dass wir international eine Vorreiterrolle in den Zukunftsthemen einnehmen können", so Helmut Leopold, Head of Department, AIT Safety & Security Department.
Hacker-Kits greifen gern alte Lücken an
Veröffentlicht am 29.01.2013 02:48:40
Omaha/Wien - Für Cyberkriminelle lohnt es sich, vergleichsweise alte Sicherheitslücken auszunutzen. Das legt eine aktuelle Studie des Managed-Security-Anbieters Solutionary nahe. Demnach sind 58 Prozent der in den gängigsten Hacker-Toolkits angegriffenen Schwachstellen älter als zwei Jahre. "Das ist sehr realistisch", meint Jürgen Eckel, Entwicklungsleiter von IKARUS Security Software. Denn sowohl bei Unternehmen als auch Privatanwendern hakt es oft in Sachen regelmäßiger Updates.
Zudem gibt Solutionary an, dass rund zwei Drittel aller Malware von Antivirus-Lösungen gar nicht erkannt wird. "Das kommt mir schon sehr viel vor", so Eckel. Doch leider sei es durchaus realistisch, dass viele Schädlinge unbemerkt bleiben. "Die Malware-Industrie kann heute sehr schnell auf AV-Innovationen reagieren", weiß der Experte. Relativ einfache Ansätze machen Schadsoftware zudem teils schwer zu erkennen.
Das Solutionary Security Engineering Research Team (SERT) hat insgesamt 26 gängige Crimeware-Toolkits untersucht, von denen 70 Prozent in Russland veröffentlicht oder entwickelt wurden. Dieser Anteil ist Eckel zufolge hoch, er hätte mehr Aktivität insbesondere auch aus China und Brasilien erwartet. Wenig überraschend kommt für den Ikarus-Experten dagegen, dass laut SERT mehr als die Hälfte der genutzten Exploits mindestens zwei Jahre alt sind und teilweise sogar noch aus 2004 stammen. Denn Software-Updates kommen sowohl bei Privat- als auch Unternehmensnutzern oft zu kurz, wenn auch aus verschiedenen Gründen.
"Nur ein Fachpublikum bekommt Schwachstellen wirklich mit", erklärt der Ikarus-Experte. Konsumenten ist daher oft nicht klar, wie nötig Aktualisierungen wären. "Sie sehen Updates eher als neue Features denn wichtige Patches", so Eckel. Insofern sei es sinnvoll, dass beispielsweise Microsoft mit Windows 8 auf rigorosere Updates abzielt.
In Unternehmen gibt es anders gelagerte Probleme. Bei Servern, deren Verfügbarkeit wichtig ist, beispielsweise "nimmt man sich oft nicht die Zeit, sie zu aktualisieren". Auch gäbe es eingebettete Systeme, die über Jahre kaum oder keine Updates erfahren.
Das wohl erschreckendeste Detail an der aktuellen Auflage des Solutionary SERT Quarterly Threat Intelligence Report ist, dass demnach 67 Prozent aller Malware nicht von Antiviren-Lösungen erkannt wird. Wenngleich dieser Wert Eckel zufolge hoch gegriffen erscheint, bestätigt der Ikarus-Experte, dass die Erkennung von Schädlingen eine immer größere Herausforderung wird und es durchaus vorstellbar ist, dass relativ viele Bedrohungen durchrutschen.
Verantwortlich dafür macht er insbesondere den serverseitigen Polymorphismus. Wie bei polymorphen Viren vor einigen Jahren verändert sich der Code von Schädlingen dabei immer wieder, doch die Algorithmen dafür liegen heute auf den Malware verteilenden Servern. "Das ist ein sehr einfaches Konzept, aber sehr effektiv", betont der Fachmann. Denn somit liegen Sicherheitsspezialisten die Polymorphismus-Algorithmen meist nicht vor, was das Erstellen passender Gegenmaßnahmen für Security-Produkte erschwert. Zudem können Cyberkriminelle an ihren Malware-Servern bei Bedarf leicht Veränderungen vornehmen.
Veröffentlicht am 29.01.2013 02:48:40
Omaha/Wien - Für Cyberkriminelle lohnt es sich, vergleichsweise alte Sicherheitslücken auszunutzen. Das legt eine aktuelle Studie des Managed-Security-Anbieters Solutionary nahe. Demnach sind 58 Prozent der in den gängigsten Hacker-Toolkits angegriffenen Schwachstellen älter als zwei Jahre. "Das ist sehr realistisch", meint Jürgen Eckel, Entwicklungsleiter von IKARUS Security Software. Denn sowohl bei Unternehmen als auch Privatanwendern hakt es oft in Sachen regelmäßiger Updates.
Zudem gibt Solutionary an, dass rund zwei Drittel aller Malware von Antivirus-Lösungen gar nicht erkannt wird. "Das kommt mir schon sehr viel vor", so Eckel. Doch leider sei es durchaus realistisch, dass viele Schädlinge unbemerkt bleiben. "Die Malware-Industrie kann heute sehr schnell auf AV-Innovationen reagieren", weiß der Experte. Relativ einfache Ansätze machen Schadsoftware zudem teils schwer zu erkennen.
Das Solutionary Security Engineering Research Team (SERT) hat insgesamt 26 gängige Crimeware-Toolkits untersucht, von denen 70 Prozent in Russland veröffentlicht oder entwickelt wurden. Dieser Anteil ist Eckel zufolge hoch, er hätte mehr Aktivität insbesondere auch aus China und Brasilien erwartet. Wenig überraschend kommt für den Ikarus-Experten dagegen, dass laut SERT mehr als die Hälfte der genutzten Exploits mindestens zwei Jahre alt sind und teilweise sogar noch aus 2004 stammen. Denn Software-Updates kommen sowohl bei Privat- als auch Unternehmensnutzern oft zu kurz, wenn auch aus verschiedenen Gründen.
"Nur ein Fachpublikum bekommt Schwachstellen wirklich mit", erklärt der Ikarus-Experte. Konsumenten ist daher oft nicht klar, wie nötig Aktualisierungen wären. "Sie sehen Updates eher als neue Features denn wichtige Patches", so Eckel. Insofern sei es sinnvoll, dass beispielsweise Microsoft mit Windows 8 auf rigorosere Updates abzielt.
In Unternehmen gibt es anders gelagerte Probleme. Bei Servern, deren Verfügbarkeit wichtig ist, beispielsweise "nimmt man sich oft nicht die Zeit, sie zu aktualisieren". Auch gäbe es eingebettete Systeme, die über Jahre kaum oder keine Updates erfahren.
Das wohl erschreckendeste Detail an der aktuellen Auflage des Solutionary SERT Quarterly Threat Intelligence Report ist, dass demnach 67 Prozent aller Malware nicht von Antiviren-Lösungen erkannt wird. Wenngleich dieser Wert Eckel zufolge hoch gegriffen erscheint, bestätigt der Ikarus-Experte, dass die Erkennung von Schädlingen eine immer größere Herausforderung wird und es durchaus vorstellbar ist, dass relativ viele Bedrohungen durchrutschen.
Verantwortlich dafür macht er insbesondere den serverseitigen Polymorphismus. Wie bei polymorphen Viren vor einigen Jahren verändert sich der Code von Schädlingen dabei immer wieder, doch die Algorithmen dafür liegen heute auf den Malware verteilenden Servern. "Das ist ein sehr einfaches Konzept, aber sehr effektiv", betont der Fachmann. Denn somit liegen Sicherheitsspezialisten die Polymorphismus-Algorithmen meist nicht vor, was das Erstellen passender Gegenmaßnahmen für Security-Produkte erschwert. Zudem können Cyberkriminelle an ihren Malware-Servern bei Bedarf leicht Veränderungen vornehmen.
Korrekte Grammatik macht Passwörter unsicher
Veröffentlicht am 29.01.2013 02:48:40
Pittsburgh/Ingolstadt - Gute Grammatik ist zwar eine Tugend, aber nicht, wenn es um das Erstellen sicherer Passwörter geht. Denn wenn ein langes Passwort grammatikalischen Regeln folgt, ist es für Angreifer leichter zu knacken. Das hat ein Team um Ashwini Rao von der Carnegie Mellon University mit einem eigens entwickelten Grammatik-sensitiven Crack-Algorithmus gezeigt. "Wir sollten uns nicht blind auf die Zahl der Wörter oder Zeichen als Maß für die Stärke eines Passworts verlassen", betont die Informatik-Doktorandin. Denn lange Passwörter sind oft praktisch kurze Sätze, da sich User das leichter merken können als willkürliche Zeichenketten.
Das Team hat seinen Knack-Algorithmus an 1.434 Passwörtern mit 16 oder mehr Zeichen getestet und konnte zeigen, dass er bei Passwörtern mit grammatikalischen Strukturen besser abschneidet als andere modernste Knack-Lösungen. Bei zehn Prozent des Datensatzes habe nur der neue Algorithmus mit dem Knacken Erfolg gehabt. Das liegt daran, dass er sich Regeln der Grammatik zunutze gemacht hat und satzähnliche Passwörter praktisch in ihre Teile zerlegt, wenn sie gängigen Strukturen wie "Fürwort-Verb-Adjektiv-Hauptwort" folgen. Dann spielt die Zahl der Worte und Zeichen für die Sicherheit eines Passworts eigentlich keine Rolle, so das Team.
Ein Beispiel dafür ist, dass die auf den ersten Blick dank Zeichensubstitutionen und der Verwendung von Sonderzeichen eigentlich gut wirkende Phrase "Th3r3 can only b3 # 1!" sich als extrem leicht zu erraten erwiesen hat. Sogar der leichter als solcher zu erkennende Satz "Superman is $uper str0ng!" ist den Berechnungen des Teams zufolge als Passwort 10.000 Mal stärker. Zudem warnt Rao, dass Phrasen mit vielen Fürwörtern sehr leicht zu erraten sind. Es gibt nämlich nur wenige Pronomen, sie sind als mit einem passenden Wörterbuch schnell gefunden. Mehr Details wird die Informatikerin im Februar auf der Conference on Data and Application Security and Privacy
http://codaspy.org</a> präsentieren.
Auf den Online-Alltag dürfte die neue Erkenntnis kaum Auswirkungen haben, da sich User auf lange Passwörter ohnehin kaum einlassen. "Realweltliche Statistiken aus Breaches zeigen, dass Passwörter meistens maximal acht Zeichen lang sind und oftmals bei mehreren Diensten benutzt werden", betont Marco Preuß, Head of Global Research and Analysis Team, DACH, bei Kaspersky. Grammatik spielt also bei echten Passwörtern meist gar keine Rolle, da es sich nur um ein Wort oder eine triviale Zeichenkette handelt.
So waren dem Passwort-Management-Spezialisten SplashData zufolge 2012 die beiden gängigsten Passwörter "password" und "123456". Zwar enthalten die SplashDate-Top-25 auch einige Kurzsätze wie "letmein", die aber ohnehin mit acht oder weniger Zeichen zu kurz sind. "Derartige Kombinationen sind aufgrund aktueller GPU-Leistung mit entsprechenden Tools schnell zu knacken", erklärt Preuß. User müssen also erst einmal anfangen, überhaupt in nennenswertem Ausmaß lange (16 Zeichen oder mehr) und komplexe Passwörter nutzen, ehe die Frage der Grammtik wirklich breitenrelevant wird.
Veröffentlicht am 29.01.2013 02:48:40
Pittsburgh/Ingolstadt - Gute Grammatik ist zwar eine Tugend, aber nicht, wenn es um das Erstellen sicherer Passwörter geht. Denn wenn ein langes Passwort grammatikalischen Regeln folgt, ist es für Angreifer leichter zu knacken. Das hat ein Team um Ashwini Rao von der Carnegie Mellon University mit einem eigens entwickelten Grammatik-sensitiven Crack-Algorithmus gezeigt. "Wir sollten uns nicht blind auf die Zahl der Wörter oder Zeichen als Maß für die Stärke eines Passworts verlassen", betont die Informatik-Doktorandin. Denn lange Passwörter sind oft praktisch kurze Sätze, da sich User das leichter merken können als willkürliche Zeichenketten.
Das Team hat seinen Knack-Algorithmus an 1.434 Passwörtern mit 16 oder mehr Zeichen getestet und konnte zeigen, dass er bei Passwörtern mit grammatikalischen Strukturen besser abschneidet als andere modernste Knack-Lösungen. Bei zehn Prozent des Datensatzes habe nur der neue Algorithmus mit dem Knacken Erfolg gehabt. Das liegt daran, dass er sich Regeln der Grammatik zunutze gemacht hat und satzähnliche Passwörter praktisch in ihre Teile zerlegt, wenn sie gängigen Strukturen wie "Fürwort-Verb-Adjektiv-Hauptwort" folgen. Dann spielt die Zahl der Worte und Zeichen für die Sicherheit eines Passworts eigentlich keine Rolle, so das Team.
Ein Beispiel dafür ist, dass die auf den ersten Blick dank Zeichensubstitutionen und der Verwendung von Sonderzeichen eigentlich gut wirkende Phrase "Th3r3 can only b3 # 1!" sich als extrem leicht zu erraten erwiesen hat. Sogar der leichter als solcher zu erkennende Satz "Superman is $uper str0ng!" ist den Berechnungen des Teams zufolge als Passwort 10.000 Mal stärker. Zudem warnt Rao, dass Phrasen mit vielen Fürwörtern sehr leicht zu erraten sind. Es gibt nämlich nur wenige Pronomen, sie sind als mit einem passenden Wörterbuch schnell gefunden. Mehr Details wird die Informatikerin im Februar auf der Conference on Data and Application Security and Privacy
http://codaspy.org</a> präsentieren.
Auf den Online-Alltag dürfte die neue Erkenntnis kaum Auswirkungen haben, da sich User auf lange Passwörter ohnehin kaum einlassen. "Realweltliche Statistiken aus Breaches zeigen, dass Passwörter meistens maximal acht Zeichen lang sind und oftmals bei mehreren Diensten benutzt werden", betont Marco Preuß, Head of Global Research and Analysis Team, DACH, bei Kaspersky. Grammatik spielt also bei echten Passwörtern meist gar keine Rolle, da es sich nur um ein Wort oder eine triviale Zeichenkette handelt.
So waren dem Passwort-Management-Spezialisten SplashData zufolge 2012 die beiden gängigsten Passwörter "password" und "123456". Zwar enthalten die SplashDate-Top-25 auch einige Kurzsätze wie "letmein", die aber ohnehin mit acht oder weniger Zeichen zu kurz sind. "Derartige Kombinationen sind aufgrund aktueller GPU-Leistung mit entsprechenden Tools schnell zu knacken", erklärt Preuß. User müssen also erst einmal anfangen, überhaupt in nennenswertem Ausmaß lange (16 Zeichen oder mehr) und komplexe Passwörter nutzen, ehe die Frage der Grammtik wirklich breitenrelevant wird.
2D-Elektronik aus Graphen rückt näher
Veröffentlicht am 29.01.2013 02:48:28
Houston/Zürich - Forschern der Rice University ist ein wichtiger Schritt auf dem Weg in Richtung zweidimensionaler Elektronik aus dem Wundermaterial Graphen gelungen. Sie haben es geschafft, wirklich nur atomdicke Schichten zu fertigen, die das leitfähige Kohlenstoff-Material in präzisen Mustern mit einem passenden Isolator kombinieren. "Es sollte möglich sein, voll funktionsfähige Geräte mit Schaltkreisen von 30 oder 20 Nanometern in 2D zu fertigen", meint Jun Lou, Maschinenbauer und Materialforscher an der Rice University. Das könnte beispielsweise neue Möglichkeiten in Sachen flexibler Elektronik eröffnen.
Die in Nature Nanotechnology veröffentlichte Arbeit ist Jürg Osterwalder, Oberflächenphysiker an der Universität Zürich, zufolge sehr interessant. "Graphen bietet zusätzlich zu Anwendungen in der Elektronik und als transparenter Leiter auch die Möglichkeit, gewisse Quanteneffekte bei Raumtemperatur zu sehen, die bei konventionellen Materialien nur bei sehr tiefen Temperaturen auftreten", erklärt der am EU-Flagship-Projekt Graphen http://www.graphene-flagship.eu beteiligte Forscher. Ein Beispiel dafür ist der Quanten-Hall-Effekt, den sich die Präzisionsmesstechnologie zunutze macht.
Das atomdicke Kohelnstoff-Material Graphen gilt aufgrund seiner Leitfähigkeit als hochinteressantes Elektronik-Material. Doch für wirkliche Elektronik reicht ein Leiter nicht, es braucht unter anderem auch isolierende Komponenten. Dafür setzt das Rice-Team auf hexagonales Bornitrid, da dies ebenso wie Graphen eine sechseckige Wabenstruktur hat. Den Forschern ist es gelungen, beide Materialien in einer nur ein Atom dicken Schicht zu kombinieren und dabei wirklich präzise Strukturen herauszuarbeiten. Dazu haben sie in einem lithografischen Verfahren Graphen in Lücken eingebettet, die in das Bornitrid geätzt wurden.
Wie genau das gelingt, zeigt beispielsweise ein winziges Bild des Universitäts-Maskottchens, einer Eule. Einzelstrukturen sind dabei rund 100 Nanometer groß, doch mit aktuellen lithografischen Techniken sollten dem Team zufolge Strukturen mit einem Fünftel dieser Größe möglich sein - was in etwa der Strukturgröße aktueller Silizium-Halbleitertechnologie entspricht. Als nächstes will man einen Halbleiter als dritte Komponente in seine Materialschicht einbetten. "Wenn das gelingt, können wir wirklich integrierte planare Geräte fertigen", so Rice-Forscher Zheng Liu.
Das Ziel des Rice-Teams ist ambitioniert, immerhin erfordert vollwertige Elektronik viele Komponenten wie etwa Gate-Elektroden zu Transistoren. "Rein zweidimensional zu bleiben, ist sicher schwierig", meint daher Osterwalder. Außerdem sei mit Blick auf die potenziellen Anwendungsmöglichkeiten die Frage, wie exakt die Grenze zwischen den einzelnen Materialbereichen ausfallen. "Mit lithografischen Methoden erreicht man schwerlich atomare Präzision", so der Physiker.
Gelingt es wirklich, 2D-Elektronik zu fertigen, wäre das nicht nur für Bereiche wie flexible Elektronik interessant. Profitieren könnte unter anderem auch die Präzisionsmesstechnologie in der Metrologie, der Lehre von Maßen und Maßsystemen. Dort gäbe es Osterwalder zufolge potenziell weiteres Anwendungspotenzial für 2D-Elektronik jenseits von konventionellen Bauelementen, beispielsweise Einelektronentransistoren.
Veröffentlicht am 29.01.2013 02:48:28
Houston/Zürich - Forschern der Rice University ist ein wichtiger Schritt auf dem Weg in Richtung zweidimensionaler Elektronik aus dem Wundermaterial Graphen gelungen. Sie haben es geschafft, wirklich nur atomdicke Schichten zu fertigen, die das leitfähige Kohlenstoff-Material in präzisen Mustern mit einem passenden Isolator kombinieren. "Es sollte möglich sein, voll funktionsfähige Geräte mit Schaltkreisen von 30 oder 20 Nanometern in 2D zu fertigen", meint Jun Lou, Maschinenbauer und Materialforscher an der Rice University. Das könnte beispielsweise neue Möglichkeiten in Sachen flexibler Elektronik eröffnen.
Die in Nature Nanotechnology veröffentlichte Arbeit ist Jürg Osterwalder, Oberflächenphysiker an der Universität Zürich, zufolge sehr interessant. "Graphen bietet zusätzlich zu Anwendungen in der Elektronik und als transparenter Leiter auch die Möglichkeit, gewisse Quanteneffekte bei Raumtemperatur zu sehen, die bei konventionellen Materialien nur bei sehr tiefen Temperaturen auftreten", erklärt der am EU-Flagship-Projekt Graphen http://www.graphene-flagship.eu beteiligte Forscher. Ein Beispiel dafür ist der Quanten-Hall-Effekt, den sich die Präzisionsmesstechnologie zunutze macht.
Das atomdicke Kohelnstoff-Material Graphen gilt aufgrund seiner Leitfähigkeit als hochinteressantes Elektronik-Material. Doch für wirkliche Elektronik reicht ein Leiter nicht, es braucht unter anderem auch isolierende Komponenten. Dafür setzt das Rice-Team auf hexagonales Bornitrid, da dies ebenso wie Graphen eine sechseckige Wabenstruktur hat. Den Forschern ist es gelungen, beide Materialien in einer nur ein Atom dicken Schicht zu kombinieren und dabei wirklich präzise Strukturen herauszuarbeiten. Dazu haben sie in einem lithografischen Verfahren Graphen in Lücken eingebettet, die in das Bornitrid geätzt wurden.
Wie genau das gelingt, zeigt beispielsweise ein winziges Bild des Universitäts-Maskottchens, einer Eule. Einzelstrukturen sind dabei rund 100 Nanometer groß, doch mit aktuellen lithografischen Techniken sollten dem Team zufolge Strukturen mit einem Fünftel dieser Größe möglich sein - was in etwa der Strukturgröße aktueller Silizium-Halbleitertechnologie entspricht. Als nächstes will man einen Halbleiter als dritte Komponente in seine Materialschicht einbetten. "Wenn das gelingt, können wir wirklich integrierte planare Geräte fertigen", so Rice-Forscher Zheng Liu.
Das Ziel des Rice-Teams ist ambitioniert, immerhin erfordert vollwertige Elektronik viele Komponenten wie etwa Gate-Elektroden zu Transistoren. "Rein zweidimensional zu bleiben, ist sicher schwierig", meint daher Osterwalder. Außerdem sei mit Blick auf die potenziellen Anwendungsmöglichkeiten die Frage, wie exakt die Grenze zwischen den einzelnen Materialbereichen ausfallen. "Mit lithografischen Methoden erreicht man schwerlich atomare Präzision", so der Physiker.
Gelingt es wirklich, 2D-Elektronik zu fertigen, wäre das nicht nur für Bereiche wie flexible Elektronik interessant. Profitieren könnte unter anderem auch die Präzisionsmesstechnologie in der Metrologie, der Lehre von Maßen und Maßsystemen. Dort gäbe es Osterwalder zufolge potenziell weiteres Anwendungspotenzial für 2D-Elektronik jenseits von konventionellen Bauelementen, beispielsweise Einelektronentransistoren.