Willkommen bei WCM
Um alle Funktionen dieser Website nutzen zu können müssen Sie sich Einloggen oder Registrieren. Die Registrierung ist unverbindlich und dauert nur einen Moment.
540 Seiten « < 21 22 23 24 > »
LG startet MWC-Flaggschiff vorab in Korea
Veröffentlicht am 20.02.2013 13:24:18
Seoul/London - Der Elektronikkonzern LG hat den Verkaufsstart seines ersten Full-HD-Smartphones mit In-Plane-Switching-Technologie (IPS) in Südkorea bekannt gegeben. Das "Optimus G Pro" bietet mit 5,5 Zoll Diagonale zudem das bislang größte Display des Herstellers. Damit haben die Koreaner auch gleich die Katze aus dem Sack gelassen, was ihr Flaggschiff für den Mobile World Kongress (MWC) betrifft. Das LTE-fähige Android-Phablet dürfte ein Maßstab dafür sein, was uns in Barcelona bei Top-Modellen technisch erwartet.
Wirklich Bahnbrechendes in Sachen Spezifikationen ist nämlich von der Konkurrenz kaum zu erwarten. "Mir fällt nicht wirklich viel ein, mit dem Anbieter im Highend-Bereich wirklich hervorstechen könnten", meint Aapo Markkanen, Senior Analyst bei ABI Research, gegenüber pressetext. Denn Full-HD, NFC und LTE sind einfach keine großen Neuigkeiten mehr. Am ehesten sei wirkliche Produktinnovation im Bereich Kameras zu erwarten, hinzu kommen stabile und flexible Geräte. "Da freue ich mich auf Prototypen zumindest von Samsung", so der Analyst.
Das Optimus G Pro verspricht dank IPS-Technologie klare Bilder aus fast jedem Blickwinkel und sticht mit 1920 mal 1080 Pixeln und 400 Bildpunkten pro Zoll das Retina-Display des iPhone 5 klar aus. Dabei liegt das Gerät mit 5,5 Zoll Bilddiagonale voll im Phablet-Trend, der sich schon auf der CES abgezeichnet hat. Auf dem MWC könnten zudem Geräte zu sehen sein, die Full HD auf kompaktere Displays packen und noch höhere Pixeldichten bieten. So wird aktuellen Gerüchten zufolge HTC beim seinem neuen Flaggschiff "One" ein 4,7-Zoll-Display nutzen.
Das HTC-Gerät soll wie der LG-Konkurrent mit einer 13-Mpx-Kamera aufwarten, ein gängiger Wert für aktuelle Highend-Modelle. Doch gerade in diesem bereich könnte es beeindruckende Ausreißer nach oben geben. "Nokias PureView auf einem neuen Lumia wäre ein Beispiel", so Markkanen. Es gibt bereits entsprechende Gerüchte, dass zum MWC-Lineup der Finnen das "Lumia 1000" mit 41-Megapixel-Kamera zählt. Bei LG dagegen stehen nicht die technischen Spezifikationen der Kamera im Vordergrund, dafür aber das damit verbundene Nutzererlebnis.
Das Optimus G Pro bietet mit Dual Recording erstmals eine gleichzeitige Bild-in-Bild-Videoaufnahme mit der Hauptkamera und der 2,1-Mpx-Frontkamera. Mit Virtual Reality Panorama wiederum sind 360-Grad-Schnappschüsse möglich. So sucht LG eine Alleinstellung im Bereich Nutzererlebnis. Damit dieses ungetrübt ausfällt, verspricht das Top-Modell zudem eine lange Laufzeit dank vergleichsweise großem Akku mit 3.140 Milliamperestunden Kapazität, der noch dazu kabellos aufladbar ist.
Mit dem Quadcore-Prozessor setzt LG indes auf einen aktuellen Highend-Standard. Doch wird vorab spekuliert, dass zumindest Huawei in diesem Bereich mit dem "Ascend P2" auftrumpfen will, das angeblich acht Prozessorkerne mit 1,8 Ghz Taktung haben soll. "Acht-Core-Prozessoren hätten die extra Kerne nur um der Kerne willen", meint allerdings Markkanen. Denn einen wirklichen Bedarf an der zusätzlichen Leistung gäbe es bei Apps nicht wirklich.
Das neue LG-Flaggschiff startet jedenfalls schon diese Woche in Südkorea, zum recht stolzen preis von umgerechnet knapp 700 Euro. Wann und zu welchem Preis es hierzulande erscheint, ist noch nicht bekannt - Details dazu könnte es aber am MWC geben.
Veröffentlicht am 20.02.2013 13:24:18
Seoul/London - Der Elektronikkonzern LG hat den Verkaufsstart seines ersten Full-HD-Smartphones mit In-Plane-Switching-Technologie (IPS) in Südkorea bekannt gegeben. Das "Optimus G Pro" bietet mit 5,5 Zoll Diagonale zudem das bislang größte Display des Herstellers. Damit haben die Koreaner auch gleich die Katze aus dem Sack gelassen, was ihr Flaggschiff für den Mobile World Kongress (MWC) betrifft. Das LTE-fähige Android-Phablet dürfte ein Maßstab dafür sein, was uns in Barcelona bei Top-Modellen technisch erwartet.
Wirklich Bahnbrechendes in Sachen Spezifikationen ist nämlich von der Konkurrenz kaum zu erwarten. "Mir fällt nicht wirklich viel ein, mit dem Anbieter im Highend-Bereich wirklich hervorstechen könnten", meint Aapo Markkanen, Senior Analyst bei ABI Research, gegenüber pressetext. Denn Full-HD, NFC und LTE sind einfach keine großen Neuigkeiten mehr. Am ehesten sei wirkliche Produktinnovation im Bereich Kameras zu erwarten, hinzu kommen stabile und flexible Geräte. "Da freue ich mich auf Prototypen zumindest von Samsung", so der Analyst.
Das Optimus G Pro verspricht dank IPS-Technologie klare Bilder aus fast jedem Blickwinkel und sticht mit 1920 mal 1080 Pixeln und 400 Bildpunkten pro Zoll das Retina-Display des iPhone 5 klar aus. Dabei liegt das Gerät mit 5,5 Zoll Bilddiagonale voll im Phablet-Trend, der sich schon auf der CES abgezeichnet hat. Auf dem MWC könnten zudem Geräte zu sehen sein, die Full HD auf kompaktere Displays packen und noch höhere Pixeldichten bieten. So wird aktuellen Gerüchten zufolge HTC beim seinem neuen Flaggschiff "One" ein 4,7-Zoll-Display nutzen.
Das HTC-Gerät soll wie der LG-Konkurrent mit einer 13-Mpx-Kamera aufwarten, ein gängiger Wert für aktuelle Highend-Modelle. Doch gerade in diesem bereich könnte es beeindruckende Ausreißer nach oben geben. "Nokias PureView auf einem neuen Lumia wäre ein Beispiel", so Markkanen. Es gibt bereits entsprechende Gerüchte, dass zum MWC-Lineup der Finnen das "Lumia 1000" mit 41-Megapixel-Kamera zählt. Bei LG dagegen stehen nicht die technischen Spezifikationen der Kamera im Vordergrund, dafür aber das damit verbundene Nutzererlebnis.
Das Optimus G Pro bietet mit Dual Recording erstmals eine gleichzeitige Bild-in-Bild-Videoaufnahme mit der Hauptkamera und der 2,1-Mpx-Frontkamera. Mit Virtual Reality Panorama wiederum sind 360-Grad-Schnappschüsse möglich. So sucht LG eine Alleinstellung im Bereich Nutzererlebnis. Damit dieses ungetrübt ausfällt, verspricht das Top-Modell zudem eine lange Laufzeit dank vergleichsweise großem Akku mit 3.140 Milliamperestunden Kapazität, der noch dazu kabellos aufladbar ist.
Mit dem Quadcore-Prozessor setzt LG indes auf einen aktuellen Highend-Standard. Doch wird vorab spekuliert, dass zumindest Huawei in diesem Bereich mit dem "Ascend P2" auftrumpfen will, das angeblich acht Prozessorkerne mit 1,8 Ghz Taktung haben soll. "Acht-Core-Prozessoren hätten die extra Kerne nur um der Kerne willen", meint allerdings Markkanen. Denn einen wirklichen Bedarf an der zusätzlichen Leistung gäbe es bei Apps nicht wirklich.
Das neue LG-Flaggschiff startet jedenfalls schon diese Woche in Südkorea, zum recht stolzen preis von umgerechnet knapp 700 Euro. Wann und zu welchem Preis es hierzulande erscheint, ist noch nicht bekannt - Details dazu könnte es aber am MWC geben.
Hightech-Stift zeichnet 3D-Skulpturen
Veröffentlicht am 20.02.2013 13:19:35
San Jose - Der aktuelle Hype um das Thema 3D-Druck bringt Computeringenieure auf mitunter sehr skurrile, aber auch innovative Ideen. Spezialisten des US-Start-ups WobbleWorks http://www.wobbleworks.net haben beispielsweise einen neuartigen Hightech-Stift entwickelt, der es dem User erlaubt, seine kreativen Einfälle nicht nur zweidimensional auf Papier zu bringen, sondern auch dreidimensional im Raum festzuhalten. Der "3Doodler" funktioniert dabei wie ein mobiler 3D-Drucker: Anstelle von herkömmlicher Tinte ist der Stift mit kleinen Plastikkügelchen gefüllt. Diese werden erhitzt, in flüssige Form gebracht und beim Austreten aus dem Gerät wieder rasch abgekühlt, um den verschiedenen Kreationen der Nutzer die nötige Härte und Stabilität zu geben.
"Der 3D-Doodler ist der weltweit erste und einzige dreidimensionale Drucker-Stift, mit dem man auch in der Luft zeichnen kann", heißt es in der offiziellen Projektbeschreibung von WobbleWorks. Für die User ergebe sich dadurch eine völlig neue künstlerische Freiheit, was die Umsetzung ihrer kreativen Ideen betrifft. "Ob Künstler, Hobby-Zeichner oder 3D-Druck-Fanatiker, das ist eine vollkommen neue und kostengünstige Art, Objekte zu erzeugen", betont der Hersteller.
Die Funktionsweise des Hightech-Stiftes ist relativ einfach erklärt. Nutzer können den 3D-Doodler wie andere normale Schreibwerkzeuge auch zwischen die Finger nehmen und ihre Zeichnungen auf zweidimensionalen Oberflächen auftragen. Wenn die User-Hand die Oberfläche verlässt und in die Luft geführt wird, sorgt ein Hitzeelement im Inneren des Geräts dafür, dass kleine Plastikkügelchen flüssig werden und sich leicht formen lassen. Ein winziger Ventilator am Ende des Stifts kühlt die austretende Masse dann schnell ab, sodass sich diese verfestigt und eine stabile Struktur bildet.
"Auf diese Weise kann praktisch eine unbegrenzte Vielfalt an Formen und Objekten erzeugt werden", betont WobbleWorks. Die Handhabung sei kinderleicht. "Der Stift benötigt keinerlei Software oder Computer. Nutzer können ihn einfach an eine Steckdose anstecken und sind sofort in der Lage, ihre Ideen dreidimensional festzuhalten", so das Versprechen der US-Firma. Um auch kompliziertere, größere Gebilde umsetzen zu können, sollten die User allerdings zuvor einige Übungsstunden absolvieren.
Wer jetzt neugierig geworden ist und sich selbst von der Praxistauglichkeit des 3D-Doodlers überzeugen möchte, muss sich aber im Moment noch etwas gedulden. WobbleWorks hat gerade erst eine Kampagne auf der Crowdfunding-Plattform Kickstarter http://kck.st/Y4PXHs ins Leben gerufen, um insgesamt 30.000 Dollar (rund 22.367 Euro) für die weitere Entwicklung des Hightech-Stifts aufzutreiben. "Wenn das gelingt, sollte unser Produkt noch im Laufe dieses Jahres in den Handel kommen", verrät Wobble-Works-Sprecher Daniel Cowen dem NewScientist. Bis dahin soll auch die jetzige Energieversorgung per Netzkabel durch eine kabellose Batterieversion ersetzt werden. Als Preis werden aktuell 75 Dollar (rund 56 Euro) veranschlagt.
Veröffentlicht am 20.02.2013 13:19:35
San Jose - Der aktuelle Hype um das Thema 3D-Druck bringt Computeringenieure auf mitunter sehr skurrile, aber auch innovative Ideen. Spezialisten des US-Start-ups WobbleWorks http://www.wobbleworks.net haben beispielsweise einen neuartigen Hightech-Stift entwickelt, der es dem User erlaubt, seine kreativen Einfälle nicht nur zweidimensional auf Papier zu bringen, sondern auch dreidimensional im Raum festzuhalten. Der "3Doodler" funktioniert dabei wie ein mobiler 3D-Drucker: Anstelle von herkömmlicher Tinte ist der Stift mit kleinen Plastikkügelchen gefüllt. Diese werden erhitzt, in flüssige Form gebracht und beim Austreten aus dem Gerät wieder rasch abgekühlt, um den verschiedenen Kreationen der Nutzer die nötige Härte und Stabilität zu geben.
"Der 3D-Doodler ist der weltweit erste und einzige dreidimensionale Drucker-Stift, mit dem man auch in der Luft zeichnen kann", heißt es in der offiziellen Projektbeschreibung von WobbleWorks. Für die User ergebe sich dadurch eine völlig neue künstlerische Freiheit, was die Umsetzung ihrer kreativen Ideen betrifft. "Ob Künstler, Hobby-Zeichner oder 3D-Druck-Fanatiker, das ist eine vollkommen neue und kostengünstige Art, Objekte zu erzeugen", betont der Hersteller.
Die Funktionsweise des Hightech-Stiftes ist relativ einfach erklärt. Nutzer können den 3D-Doodler wie andere normale Schreibwerkzeuge auch zwischen die Finger nehmen und ihre Zeichnungen auf zweidimensionalen Oberflächen auftragen. Wenn die User-Hand die Oberfläche verlässt und in die Luft geführt wird, sorgt ein Hitzeelement im Inneren des Geräts dafür, dass kleine Plastikkügelchen flüssig werden und sich leicht formen lassen. Ein winziger Ventilator am Ende des Stifts kühlt die austretende Masse dann schnell ab, sodass sich diese verfestigt und eine stabile Struktur bildet.
"Auf diese Weise kann praktisch eine unbegrenzte Vielfalt an Formen und Objekten erzeugt werden", betont WobbleWorks. Die Handhabung sei kinderleicht. "Der Stift benötigt keinerlei Software oder Computer. Nutzer können ihn einfach an eine Steckdose anstecken und sind sofort in der Lage, ihre Ideen dreidimensional festzuhalten", so das Versprechen der US-Firma. Um auch kompliziertere, größere Gebilde umsetzen zu können, sollten die User allerdings zuvor einige Übungsstunden absolvieren.
Wer jetzt neugierig geworden ist und sich selbst von der Praxistauglichkeit des 3D-Doodlers überzeugen möchte, muss sich aber im Moment noch etwas gedulden. WobbleWorks hat gerade erst eine Kampagne auf der Crowdfunding-Plattform Kickstarter http://kck.st/Y4PXHs ins Leben gerufen, um insgesamt 30.000 Dollar (rund 22.367 Euro) für die weitere Entwicklung des Hightech-Stifts aufzutreiben. "Wenn das gelingt, sollte unser Produkt noch im Laufe dieses Jahres in den Handel kommen", verrät Wobble-Works-Sprecher Daniel Cowen dem NewScientist. Bis dahin soll auch die jetzige Energieversorgung per Netzkabel durch eine kabellose Batterieversion ersetzt werden. Als Preis werden aktuell 75 Dollar (rund 56 Euro) veranschlagt.
Provider-Tool killt Bots auf Kunden-Rechnern
Veröffentlicht am 20.02.2013 13:16:17
München - Ein neues Tool des Sicherheitspsezialisten F-Secure http://f-secure.de verspricht Service-Providern die Möglichkeit, von Botnet-Malware befallene Rechner ihrer Kunden zu entdecken und zu reinigen - insbesondere bei vom Nutzer selbst schlecht geschützten Geräten. "Antibot" führt User dazu durch einen einfachen Prozess zur Beseitigung des Schädlings. Sinn des Tools ist, so die Bandbreiten-Verschwendung durch Botnetze zu minimieren und somit die Netzwerk-Performance hoch zu halten. Antibot wird zunächst für Windows und Android funktionieren, im weiteren Jahresverlauf dann auch für Mac OS X.
Für Endkunden stellt sich bei solch einem netzwerkseitigen Tool natürlich die Frage, ob es ihre Privatsphäre respektiert. "Wir überwachen primär nicht Inhalte, sondern das Verhalten der Systeme", beruhigt Peter Klein, Head Of Technical Services bei F-Secure, auf Nachfrage. Konkret sollen auffällige Datenströme ermöglichen, Infektionen auf die Spur zu kommen.
Ein von einem Botnetz-Schädling befallener Rechner kommuniziert regelmäßig mit bestimmten Servern und Ports, weil sich die Malware so Befehle holt. Eben dieses Verhalten soll Antibot ermöglichen, Infektionen auf die Schliche zu kommen. Technisch wäre es eigentlich möglich, mit solchen Methoden beispielsweise auch Filesharer ausfindig zu machen, so Klein. Daher bietet F-Secure Antibot nicht quelloffen an, sondern behält die Kontrolle darüber, wie genau das Tool genutzt werden kann. "Damit wollen wir auch verhindern, dass Provider es für andere Zwecke missbrauchen", sagt der F-Secure-Experte.
Letztlich sollen Endkunden durch Antibot eine positive Erfahrung mit dem Service ihres Providers machen. Denn wenn eine Infektion ihren Computer und ihre Internetverbindung belastet, verspricht das Tool unkomplizierte Abhilfe. Für Netzbetreiber wiederum soll sich das lohnen, weil User sich praktisch selbst helfen können und daher den Helpdesk nicht so beanspruchen. Außerdem verspricht der wegfallende Botnetz-Traffic erhebliche Einsparungen, weil eine unnötige Last für die Netzwerkinfrastruktur ausfällt.
Im Visier hat F-Secure dabei nicht zuletzt Infektionen von Geräten, die eigentlich ungeschützt sind. Denn manchen Schätzungen zufolge verzichtet immer noch jeder fünfte PC-User auf eine Antiviren-Lösung. "Diese Computer werden dann am ehesten infiziert und so zu einen Problem für die Betreiber, die ihr Netzwerk sauber halten wollen", erklärt Mikko Hyppönen, Chief Research Officer bei F-Secure. Bei Android dürfte der Anteil der effektiv ungeschützten Geräte sogar noch höher ausfallen - dabei ist auch hier schon Malware mit Botnetz-Funktionalität bekannt.
Für solche Risiko-User könnte Antibot geradezu ein Segen sein, immerhin umfasst Botnetz-Malware häufig auch andere Funktionalitäten. Gängig ist, dass die Schädlinge auch private Daten ausspionieren, mit "Zeus" ist ein gängiger Botnetz-Schädling sogar eher aufgrund seiner Funktion als Banking-Trojaner bekannt. Die mit einer Infektion verbundenen Risiken sind für User also wesentlich größer als nur verschwendete Bandbreite.
Veröffentlicht am 20.02.2013 13:16:17
München - Ein neues Tool des Sicherheitspsezialisten F-Secure http://f-secure.de verspricht Service-Providern die Möglichkeit, von Botnet-Malware befallene Rechner ihrer Kunden zu entdecken und zu reinigen - insbesondere bei vom Nutzer selbst schlecht geschützten Geräten. "Antibot" führt User dazu durch einen einfachen Prozess zur Beseitigung des Schädlings. Sinn des Tools ist, so die Bandbreiten-Verschwendung durch Botnetze zu minimieren und somit die Netzwerk-Performance hoch zu halten. Antibot wird zunächst für Windows und Android funktionieren, im weiteren Jahresverlauf dann auch für Mac OS X.
Für Endkunden stellt sich bei solch einem netzwerkseitigen Tool natürlich die Frage, ob es ihre Privatsphäre respektiert. "Wir überwachen primär nicht Inhalte, sondern das Verhalten der Systeme", beruhigt Peter Klein, Head Of Technical Services bei F-Secure, auf Nachfrage. Konkret sollen auffällige Datenströme ermöglichen, Infektionen auf die Spur zu kommen.
Ein von einem Botnetz-Schädling befallener Rechner kommuniziert regelmäßig mit bestimmten Servern und Ports, weil sich die Malware so Befehle holt. Eben dieses Verhalten soll Antibot ermöglichen, Infektionen auf die Schliche zu kommen. Technisch wäre es eigentlich möglich, mit solchen Methoden beispielsweise auch Filesharer ausfindig zu machen, so Klein. Daher bietet F-Secure Antibot nicht quelloffen an, sondern behält die Kontrolle darüber, wie genau das Tool genutzt werden kann. "Damit wollen wir auch verhindern, dass Provider es für andere Zwecke missbrauchen", sagt der F-Secure-Experte.
Letztlich sollen Endkunden durch Antibot eine positive Erfahrung mit dem Service ihres Providers machen. Denn wenn eine Infektion ihren Computer und ihre Internetverbindung belastet, verspricht das Tool unkomplizierte Abhilfe. Für Netzbetreiber wiederum soll sich das lohnen, weil User sich praktisch selbst helfen können und daher den Helpdesk nicht so beanspruchen. Außerdem verspricht der wegfallende Botnetz-Traffic erhebliche Einsparungen, weil eine unnötige Last für die Netzwerkinfrastruktur ausfällt.
Im Visier hat F-Secure dabei nicht zuletzt Infektionen von Geräten, die eigentlich ungeschützt sind. Denn manchen Schätzungen zufolge verzichtet immer noch jeder fünfte PC-User auf eine Antiviren-Lösung. "Diese Computer werden dann am ehesten infiziert und so zu einen Problem für die Betreiber, die ihr Netzwerk sauber halten wollen", erklärt Mikko Hyppönen, Chief Research Officer bei F-Secure. Bei Android dürfte der Anteil der effektiv ungeschützten Geräte sogar noch höher ausfallen - dabei ist auch hier schon Malware mit Botnetz-Funktionalität bekannt.
Für solche Risiko-User könnte Antibot geradezu ein Segen sein, immerhin umfasst Botnetz-Malware häufig auch andere Funktionalitäten. Gängig ist, dass die Schädlinge auch private Daten ausspionieren, mit "Zeus" ist ein gängiger Botnetz-Schädling sogar eher aufgrund seiner Funktion als Banking-Trojaner bekannt. Die mit einer Infektion verbundenen Risiken sind für User also wesentlich größer als nur verschwendete Bandbreite.
ADV-Rechtstag 2013 am 14. März in Wien
Veröffentlicht am 20.02.2013 13:12:52
Wien - Das Interesse an Rechtsfragen im Zusammenhang mit der Beschaffung, Verwendung und Weitergabe von Informations- und Kommunikationstechnologie nimmt gezwungenermaßen immer mehr zu. Es gibt kaum noch eine Technologieanwendung, bei der sich nicht auch eine Reihe von rechtlichen Fragen stellt. Die ADV - als größte unabhängige IKT-Plattform Österreichs - entspricht seit Jahren durch verschiedene Veranstaltungen diesem Bedürfnis.
Auf mehrfach geäußerten Wunsch wird auch 2013 wieder ein ADV-Rechtstag durchgeführt, der in prägnanter und kurzweiliger Form topaktuelle IKT-Rechtsthemen zum Gegenstand hat, mit drei Schwerpunkten:
*Social Media und Arbeitswelt,
*Agile Softwareentwicklung und
*IT-Compliance.
Ort und Datum: 14. März 2013, 8.30 bis 17 Uhr im Hotel Savoyen, Rennweg 16, 1030 Wien
Es ist gelungen, auch diesmal anerkannte Experten zu gewinnen, welche Ihnen diese Themenbereiche näher bringen werden. Den genauen Programminhalt und Einzelheiten zu den Referenten entnehmen Sie bitte dem Programm auf der Website unter http://www.adv.at .
Veröffentlicht am 20.02.2013 13:12:52
Wien - Das Interesse an Rechtsfragen im Zusammenhang mit der Beschaffung, Verwendung und Weitergabe von Informations- und Kommunikationstechnologie nimmt gezwungenermaßen immer mehr zu. Es gibt kaum noch eine Technologieanwendung, bei der sich nicht auch eine Reihe von rechtlichen Fragen stellt. Die ADV - als größte unabhängige IKT-Plattform Österreichs - entspricht seit Jahren durch verschiedene Veranstaltungen diesem Bedürfnis.
Auf mehrfach geäußerten Wunsch wird auch 2013 wieder ein ADV-Rechtstag durchgeführt, der in prägnanter und kurzweiliger Form topaktuelle IKT-Rechtsthemen zum Gegenstand hat, mit drei Schwerpunkten:
*Social Media und Arbeitswelt,
*Agile Softwareentwicklung und
*IT-Compliance.
Ort und Datum: 14. März 2013, 8.30 bis 17 Uhr im Hotel Savoyen, Rennweg 16, 1030 Wien
Es ist gelungen, auch diesmal anerkannte Experten zu gewinnen, welche Ihnen diese Themenbereiche näher bringen werden. Den genauen Programminhalt und Einzelheiten zu den Referenten entnehmen Sie bitte dem Programm auf der Website unter http://www.adv.at .
Fachtagung beleuchtet neue Regional-Domains
Veröffentlicht am 20.02.2013 13:12:52
Davos - Noch dieses Jahr sollen neue generische Top-Level-Domains (gTLD) starten, darunter regionale Endungen wie .swiss, .zuerich oder .wien. Vertreter dieser drei Projekte haben am ersten Tag der dieses Jahr von SWITCH
http://www.switch.ch veranstalteten Domain pulse http://www.domainpulse.ch , der deutschsprachigen Fachtagung zu Domain-Themen, beleuchtet, wo ihre Domains derzeit stehen. Die Diskussion hat gezeigt, dass ein öffentlich getragener Community-Zugang durchaus Potenzial, aber auch ein stärker wirtschaftlich orientierter Zugang Vorteile hat.
"Man sieht - auch anhand der Publikumsreaktionen hier - dass .wien wirklich ein Vorreiter ist, gut vorbereitet ist und schon ein klares Konzept für die Nutzung der Domains hat", meint nic.at-Geschäftsführer Richard Wein. Das ist wichtig, wenn eine neue Endung möglichst zeitnah und wirklich profitabel starten soll - was aber nicht bei allen regionalen Endungen im Vordergrund steht.
"Wir eröffnen neue Domainsionen", so Ronald Schwärzler, Geschäftsführer von punkt.wien http://www.punktwien.at . Damit ist klar: Obwohl .wien gewisse Domains für die Stadt Wien und öffentliche Interessen reserviert, soll die Endung breit vermarktet werden. Dazu gibt es unter anderem eine Kooperation mit dem Fußballklub Austria Wien, um über den Verein und durch Aktionen in der Halbzeitpause Endkunden zu erreichen. Generell setzt das Projekt auf Lokalpatriotismus als Verkaufsargument und hat auch ein klares Mindestziel. Ab 40.000 verkauften Domains wird es laut Schwärzler interessant.
Geplant ist, im dritten Quartal mit der ersten Registrierungsphase für bekannte Marken zu starten, eine Domain soll dabei 800 bis 1.000 Euro für zehn Jahre kommen. Dem folgt eine Landrush-Phase, in der beliebte Namen versteigert werden, ehe letztlich jeder eine .wien-Domain bekommen kann - ein klares wirtschaftliches Konzept also. "Andere - speziell wenn sie aus dem öffentlichen Umfeld kommen - haben viele Fragen noch nicht geklärt, was ihre Domainvergabepolitik und Preisgestaltung betrifft", betont Wein. Das gilt beispielsweise für das große Schweizerische Projekt .swiss.
Freilich ist bei .swiss die Ausgangslage eine völlig andere, hier steht der Bund selbst hinter dem Projekt. Ziel war es laut Thomas Schneider vom Bundesamt für Kommunikation http://www.bakom.admin.ch , die Interessen der Schweizer Community zu wahren und eine Nutzung durch Dritte zu verhindern. Um Geld geht es eigentlich nicht, doch gibt es bereits einen namhaften Partner aus der Wirtschaft, der sich dem Projekt angeschlossen hat. Schneider zufolge gab es lange Gespräche mit der Fluglinie Swiss, die letztlich eine konkurrierende, eigene Bewerbung zurückgezogen hat.
Allerdings ist noch gar nicht genau klar, wer eine .swiss-Domain bekommen kann und zu welchen Bedingungen. Die Endung soll als Qualitätsdomain positioniert werden und wird wohl zumindest anfangs Privatnutzern nicht offenstehen. Etwas klarer ist die Situation bei .zuerich. Der hinter der Domain stehende Kanton denkt an ein Non-Profit-Modell und will die Endung exklusiv strategisch institutionellen Partnern wie 5-Sterne-Hotels oder größeren Gemeinden anbieten.
Für Zürich eilt die Entscheidungsfindung aber nicht so sehr. Denn die ICANN http://www.icann.org bearbeitet die knapp 2.000 gTLD-Bewerbungen in der Reihenfolge eines Losentscheids und .zuerich kommt erst spät zum Zug. Für eine primär wirtschaftlich vorangetriebene Bewerbung wäre das noch nachteiliger, da hier jede Verzögerung weitere Kosten ohne Einnahmen bedeutet.
Dabei könnte es seitens der ICANN noch zu gewissen Problemen kommen, warnt nic.at. Denn es sei noch offen, wie genau das sogenannte "Trademark Clearing House" funktionieren soll, das Markeninhaber einen Schutz ihre Marke vor missbräuchlichen Domain-Registrierungen ermöglichen soll. Dabei ist dieses System eine wichtige Voraussetzung für den Start der neuen gTLDs. Branchenkenner hoffen, dass es spätestens beim nächsten ICANN-Meeting im April endlich Details gibt.
Veröffentlicht am 20.02.2013 13:12:52
Davos - Noch dieses Jahr sollen neue generische Top-Level-Domains (gTLD) starten, darunter regionale Endungen wie .swiss, .zuerich oder .wien. Vertreter dieser drei Projekte haben am ersten Tag der dieses Jahr von SWITCH
http://www.switch.ch veranstalteten Domain pulse http://www.domainpulse.ch , der deutschsprachigen Fachtagung zu Domain-Themen, beleuchtet, wo ihre Domains derzeit stehen. Die Diskussion hat gezeigt, dass ein öffentlich getragener Community-Zugang durchaus Potenzial, aber auch ein stärker wirtschaftlich orientierter Zugang Vorteile hat.
"Man sieht - auch anhand der Publikumsreaktionen hier - dass .wien wirklich ein Vorreiter ist, gut vorbereitet ist und schon ein klares Konzept für die Nutzung der Domains hat", meint nic.at-Geschäftsführer Richard Wein. Das ist wichtig, wenn eine neue Endung möglichst zeitnah und wirklich profitabel starten soll - was aber nicht bei allen regionalen Endungen im Vordergrund steht.
"Wir eröffnen neue Domainsionen", so Ronald Schwärzler, Geschäftsführer von punkt.wien http://www.punktwien.at . Damit ist klar: Obwohl .wien gewisse Domains für die Stadt Wien und öffentliche Interessen reserviert, soll die Endung breit vermarktet werden. Dazu gibt es unter anderem eine Kooperation mit dem Fußballklub Austria Wien, um über den Verein und durch Aktionen in der Halbzeitpause Endkunden zu erreichen. Generell setzt das Projekt auf Lokalpatriotismus als Verkaufsargument und hat auch ein klares Mindestziel. Ab 40.000 verkauften Domains wird es laut Schwärzler interessant.
Geplant ist, im dritten Quartal mit der ersten Registrierungsphase für bekannte Marken zu starten, eine Domain soll dabei 800 bis 1.000 Euro für zehn Jahre kommen. Dem folgt eine Landrush-Phase, in der beliebte Namen versteigert werden, ehe letztlich jeder eine .wien-Domain bekommen kann - ein klares wirtschaftliches Konzept also. "Andere - speziell wenn sie aus dem öffentlichen Umfeld kommen - haben viele Fragen noch nicht geklärt, was ihre Domainvergabepolitik und Preisgestaltung betrifft", betont Wein. Das gilt beispielsweise für das große Schweizerische Projekt .swiss.
Freilich ist bei .swiss die Ausgangslage eine völlig andere, hier steht der Bund selbst hinter dem Projekt. Ziel war es laut Thomas Schneider vom Bundesamt für Kommunikation http://www.bakom.admin.ch , die Interessen der Schweizer Community zu wahren und eine Nutzung durch Dritte zu verhindern. Um Geld geht es eigentlich nicht, doch gibt es bereits einen namhaften Partner aus der Wirtschaft, der sich dem Projekt angeschlossen hat. Schneider zufolge gab es lange Gespräche mit der Fluglinie Swiss, die letztlich eine konkurrierende, eigene Bewerbung zurückgezogen hat.
Allerdings ist noch gar nicht genau klar, wer eine .swiss-Domain bekommen kann und zu welchen Bedingungen. Die Endung soll als Qualitätsdomain positioniert werden und wird wohl zumindest anfangs Privatnutzern nicht offenstehen. Etwas klarer ist die Situation bei .zuerich. Der hinter der Domain stehende Kanton denkt an ein Non-Profit-Modell und will die Endung exklusiv strategisch institutionellen Partnern wie 5-Sterne-Hotels oder größeren Gemeinden anbieten.
Für Zürich eilt die Entscheidungsfindung aber nicht so sehr. Denn die ICANN http://www.icann.org bearbeitet die knapp 2.000 gTLD-Bewerbungen in der Reihenfolge eines Losentscheids und .zuerich kommt erst spät zum Zug. Für eine primär wirtschaftlich vorangetriebene Bewerbung wäre das noch nachteiliger, da hier jede Verzögerung weitere Kosten ohne Einnahmen bedeutet.
Dabei könnte es seitens der ICANN noch zu gewissen Problemen kommen, warnt nic.at. Denn es sei noch offen, wie genau das sogenannte "Trademark Clearing House" funktionieren soll, das Markeninhaber einen Schutz ihre Marke vor missbräuchlichen Domain-Registrierungen ermöglichen soll. Dabei ist dieses System eine wichtige Voraussetzung für den Start der neuen gTLDs. Branchenkenner hoffen, dass es spätestens beim nächsten ICANN-Meeting im April endlich Details gibt.
Besichtigung von Kunstobjekten durch Monitoring
Veröffentlicht am 18.02.2013 11:51:57
Rom - Das von wissenschaftlichen Mitarbeitern der Università La Sapienza gegründete Start-up-Unternehmen Wsense
http://wsense.it hat ein neuartiges digitales Modell für archäologische Zwecke vorgestellt. Mithilfe des "Crowd funding for cOnserving and VAlorizing minor monuments" (Cova) sollen weniger bekannte oder kaum zugängliche historische Kunstschätze aufgewertet und besser konserviert werden.
Als Instrumentarium dient ein von drahtlosen Sensoren gesteuertes Netzwerk, das den Zustand alter Bauwerke in Realzeit überwacht und die Informationen für erforderliche Erhaltungs- oder Instandssetzungsmaßnahmen liefert. "Das System ermöglicht dem virtuellen Nutzer eine Besichtigung in dreidimensionaler Form und gleichzeitig auch einen wissenschaftlich fundierten geschichtlichen Rückblick", bestätigen Informatiker Andrea Vitaletti und der Archäologe Emanuel Demetrescu.
Den Experten nach werden die historischen Rundfahrten durch die Bereitstellung von Apps aufgebessert, die die optische Wahrnehmung des Besuchers durch kulturelle und touristische Informationen ergänzen. Oft hätten bestimmte Kulturgüter nur deswegen eine zweitrangige Bedeutung, weil sie weniger gut erhalten sind oder außerhalb der großen Touristenströme liegen. Durch die digitale Rekonstruktion der ursprünglichen Formen und Farben könnten im Nachhinein Meisterwerke entstehen, deren Überwachung und Renovierung sich lohne.
Experimentiert wurde das Modell in einem Gebäude der informationswissenschaftlichen Fakultät der Universität La Sapienza. Dort konnten im Zuge von Renovierungsarbeiten bisher unter Verschluss gehaltene Funde aus der Römerzeit mithilfe von Cova einem breiten Publikum zugänglich gemacht werden.
"Die Vorzüge des Verfahrens liegen vor allem in seiner Übertragbarkeit auf die unterschiedlichsten Situationen im nationalen oder internationalen Umfeld sowie in den vergleichsweise niedrigen Kosten" meinen die beiden Projektväter. Dazu trage auch das verwendete Prinzip des Crowdfundings unter Einbeziehung lokaler Gruppierungen und der Sensibilisierung einzelner Personen bei.
Veröffentlicht am 18.02.2013 11:51:57
Rom - Das von wissenschaftlichen Mitarbeitern der Università La Sapienza gegründete Start-up-Unternehmen Wsense
http://wsense.it hat ein neuartiges digitales Modell für archäologische Zwecke vorgestellt. Mithilfe des "Crowd funding for cOnserving and VAlorizing minor monuments" (Cova) sollen weniger bekannte oder kaum zugängliche historische Kunstschätze aufgewertet und besser konserviert werden.
Als Instrumentarium dient ein von drahtlosen Sensoren gesteuertes Netzwerk, das den Zustand alter Bauwerke in Realzeit überwacht und die Informationen für erforderliche Erhaltungs- oder Instandssetzungsmaßnahmen liefert. "Das System ermöglicht dem virtuellen Nutzer eine Besichtigung in dreidimensionaler Form und gleichzeitig auch einen wissenschaftlich fundierten geschichtlichen Rückblick", bestätigen Informatiker Andrea Vitaletti und der Archäologe Emanuel Demetrescu.
Den Experten nach werden die historischen Rundfahrten durch die Bereitstellung von Apps aufgebessert, die die optische Wahrnehmung des Besuchers durch kulturelle und touristische Informationen ergänzen. Oft hätten bestimmte Kulturgüter nur deswegen eine zweitrangige Bedeutung, weil sie weniger gut erhalten sind oder außerhalb der großen Touristenströme liegen. Durch die digitale Rekonstruktion der ursprünglichen Formen und Farben könnten im Nachhinein Meisterwerke entstehen, deren Überwachung und Renovierung sich lohne.
Experimentiert wurde das Modell in einem Gebäude der informationswissenschaftlichen Fakultät der Universität La Sapienza. Dort konnten im Zuge von Renovierungsarbeiten bisher unter Verschluss gehaltene Funde aus der Römerzeit mithilfe von Cova einem breiten Publikum zugänglich gemacht werden.
"Die Vorzüge des Verfahrens liegen vor allem in seiner Übertragbarkeit auf die unterschiedlichsten Situationen im nationalen oder internationalen Umfeld sowie in den vergleichsweise niedrigen Kosten" meinen die beiden Projektväter. Dazu trage auch das verwendete Prinzip des Crowdfundings unter Einbeziehung lokaler Gruppierungen und der Sensibilisierung einzelner Personen bei.
Smart Citys: Glasfaser-Netze sind unverzichtbar
Veröffentlicht am 18.02.2013 11:51:57
Wien - Auf der am kommenden Dienstag beginnenden Fibre to the Home (FTTH) Conference in London steht nicht zuletzt die Bedeutung von Glasfaser-Netzen für Smart-City-Projekte im Vordergrund. "Sie sind dafür die grundlegende Infrastruktur, vergleichbar mit dem Nervensystem im Körper", betont Paolo Sebben, Chair Smart Cities Group beim FTTH Council Europe. Doch in der Praxis haben Projekte oft damit zu kämpfen, dass es Entscheidungsträgern das Bewusstsein genau dafür fehlt - was auch die Finanzierung erschwert.
"Regierungen müssen verstehen lernen, dass Glasfaser-Investitionen wichtige Infrastruktur-Investitionen sind", meint Hartwig Tauber, Generaldirektor des FTTH Council Europe. Denn ihre wirtschaftliche Bedeutung ist immens, wie auf der Konferenz eine neue, etwas unerwartete treibende Kraft für den Glasfaser-Ausbau zeigt: die Entertainment-Industrie. Denn Trends wie Ultra-HD für das Heimkino und die immer stärkere Vernetzung von Games machen wirklich schnelles Breitband für eine sinnvolle Content-Bereitstellung zunehmend unverzichtbar.
Auf der diesjährigen CES haben Ultra-HD-Fernseher 3D bereits die Show gestohlen, doch in der Praxis steht die 4k-Auflösung noch vor großen Hürden. "Man kann derzeit keine 4k-Filme ausliefern, weil sie nicht auf eine Blu-ray passen", erklärt Tauber. Mit vier bis fünf Disks werden Kunden kaum hantieren wollen, die Alternative sind digitale Downloads, wie sie beispielsweise Sony schon forciert. Doch auch das hat Grenzen. "100 Gigabyte über einen DSL-Anschluss ist nicht praktikabel", so der Experte. Eben deshalb wird Glasfaservernetzung für moderne Entertainment-Angebote immer wichtiger.
Profitieren würden nicht nur Größen wie Sony. Ist der digitale Vertrieb wirklich praktikabel, könnten kleinere, unabhängige Filmstudios mit vergleichsweise geringem Aufwand mehr Seher erreichen. Stabile Breitbandnetze werden zudem für die Games-Industrie immer wichtiger, da Spiele immer öfter Online-Komponenten haben oder gar nur noch mit Internet-Verbindung spielbar sind. Wenn ab April bei "Defiance" http://www.defiance.com TV- und Games-Welt interagieren sollen, dringt die Entertainment-Industrie in Bereiche vor, wo zunehmend eine wirklich intelligente Vernetzung wichtig wäre.
Eben diese intelligente Vernetzung sollte eine Smart City ausmachen, mit den dafür nötigen Glasfasernetzen. "Bei aktuellen Projekten ist oft eher das Gegenteil der Fall", meint Tauber. Zu häufig wird demnach politisch vermarktbaren Einzelaktionen beispielsweise in den Bereichen Verkehr und Ökoenergie das Mäntelchen Smart City umgehängt, obwohl es am Wesentlichen mangelt. Eigentlich sollte eine Smart City praktisch wie ein Körper über Sensoren Informationen aufnehmen, dann verarbeiten und letztlich Reaktionen auslösen können, so Sebben. "Wenn das Nervensystem nicht schnell ist, keine Glasfaser ist, dann klappt das nicht", warnt er.
Es ist dem Experten zufolge zwar nicht sinnvoll, in einer organisch gewachsenen Stadt gleich alle wichtigen Aspekte des Lebens von Verwaltung über Verkehr und Energieversorgung bis hin zur Wirtschaft auf einen Schlag intelligent vernetzen zu wollen. Drei große Bereiche sollten aber abgedeckt werden, um gerechtfertigt Anspruch auf die Bezeichnung Smart City zu erheben. Ein gutes Beispiel dafür sei St. Gallen, das in seinem Smart-City-Projekt Energieversorgung, Mobilität und Wärmeversorgung verbindet. "Man will so den Energiekonsum bis 2030 annähernd halbieren", so Sebben.
Aus Sicht des FTTH Council Europe ist somit klar, dass Glasfasern letztlich die essenzielle Infrastruktur für intelligente Städte der Zukunft sind, da nur sie wirklich schnelle Zweiweg-Datenübertragung ermöglichen. Dementsprechend wird auf der Konferenz ein Thema die bedauerliche EU-Entscheidung sein, das Budget für den digitalen Teil der Connecting Europe Facilty von geplanten 9,2 Mrd. auf eine Mrd. Euro zusammenzustreichen und dabei speziell den Breitband-Ausbau auf dem Budget-Tisch zu opfern. Damit bleibt eine erhoffte positive Signalwirkung aus - obwohl gerade die Politik ohnehin oft hinderlich für Smart-City-Projekte ist.
"Vor allem in großen Städten sind wir oft mit der Herausforderung konfrontiert, dass noch eine Generation von Entscheidungsträgern im Amt ist, die mit den Möglichkeiten der Telekommunikation nicht restlos vertraut ist", erklärt Tauber. So fehlt oft das Verständnis für die Bedeutung von Glasfasern als Infrastruktur. Hinzu kommt, dass einzelne Smart-City-Projekte in der Regel nur einige bis einige zehn Mio. Euro schwer und damit zu klein für große Investmentbanken sind - obwohl eigentlich ausreichend finanzielle Mittel verfügbar wären. Die FTTH Conference soll auch dazu beitragen, solche Probleme zu überwinden.
Veröffentlicht am 18.02.2013 11:51:57
Wien - Auf der am kommenden Dienstag beginnenden Fibre to the Home (FTTH) Conference in London steht nicht zuletzt die Bedeutung von Glasfaser-Netzen für Smart-City-Projekte im Vordergrund. "Sie sind dafür die grundlegende Infrastruktur, vergleichbar mit dem Nervensystem im Körper", betont Paolo Sebben, Chair Smart Cities Group beim FTTH Council Europe. Doch in der Praxis haben Projekte oft damit zu kämpfen, dass es Entscheidungsträgern das Bewusstsein genau dafür fehlt - was auch die Finanzierung erschwert.
"Regierungen müssen verstehen lernen, dass Glasfaser-Investitionen wichtige Infrastruktur-Investitionen sind", meint Hartwig Tauber, Generaldirektor des FTTH Council Europe. Denn ihre wirtschaftliche Bedeutung ist immens, wie auf der Konferenz eine neue, etwas unerwartete treibende Kraft für den Glasfaser-Ausbau zeigt: die Entertainment-Industrie. Denn Trends wie Ultra-HD für das Heimkino und die immer stärkere Vernetzung von Games machen wirklich schnelles Breitband für eine sinnvolle Content-Bereitstellung zunehmend unverzichtbar.
Auf der diesjährigen CES haben Ultra-HD-Fernseher 3D bereits die Show gestohlen, doch in der Praxis steht die 4k-Auflösung noch vor großen Hürden. "Man kann derzeit keine 4k-Filme ausliefern, weil sie nicht auf eine Blu-ray passen", erklärt Tauber. Mit vier bis fünf Disks werden Kunden kaum hantieren wollen, die Alternative sind digitale Downloads, wie sie beispielsweise Sony schon forciert. Doch auch das hat Grenzen. "100 Gigabyte über einen DSL-Anschluss ist nicht praktikabel", so der Experte. Eben deshalb wird Glasfaservernetzung für moderne Entertainment-Angebote immer wichtiger.
Profitieren würden nicht nur Größen wie Sony. Ist der digitale Vertrieb wirklich praktikabel, könnten kleinere, unabhängige Filmstudios mit vergleichsweise geringem Aufwand mehr Seher erreichen. Stabile Breitbandnetze werden zudem für die Games-Industrie immer wichtiger, da Spiele immer öfter Online-Komponenten haben oder gar nur noch mit Internet-Verbindung spielbar sind. Wenn ab April bei "Defiance" http://www.defiance.com TV- und Games-Welt interagieren sollen, dringt die Entertainment-Industrie in Bereiche vor, wo zunehmend eine wirklich intelligente Vernetzung wichtig wäre.
Eben diese intelligente Vernetzung sollte eine Smart City ausmachen, mit den dafür nötigen Glasfasernetzen. "Bei aktuellen Projekten ist oft eher das Gegenteil der Fall", meint Tauber. Zu häufig wird demnach politisch vermarktbaren Einzelaktionen beispielsweise in den Bereichen Verkehr und Ökoenergie das Mäntelchen Smart City umgehängt, obwohl es am Wesentlichen mangelt. Eigentlich sollte eine Smart City praktisch wie ein Körper über Sensoren Informationen aufnehmen, dann verarbeiten und letztlich Reaktionen auslösen können, so Sebben. "Wenn das Nervensystem nicht schnell ist, keine Glasfaser ist, dann klappt das nicht", warnt er.
Es ist dem Experten zufolge zwar nicht sinnvoll, in einer organisch gewachsenen Stadt gleich alle wichtigen Aspekte des Lebens von Verwaltung über Verkehr und Energieversorgung bis hin zur Wirtschaft auf einen Schlag intelligent vernetzen zu wollen. Drei große Bereiche sollten aber abgedeckt werden, um gerechtfertigt Anspruch auf die Bezeichnung Smart City zu erheben. Ein gutes Beispiel dafür sei St. Gallen, das in seinem Smart-City-Projekt Energieversorgung, Mobilität und Wärmeversorgung verbindet. "Man will so den Energiekonsum bis 2030 annähernd halbieren", so Sebben.
Aus Sicht des FTTH Council Europe ist somit klar, dass Glasfasern letztlich die essenzielle Infrastruktur für intelligente Städte der Zukunft sind, da nur sie wirklich schnelle Zweiweg-Datenübertragung ermöglichen. Dementsprechend wird auf der Konferenz ein Thema die bedauerliche EU-Entscheidung sein, das Budget für den digitalen Teil der Connecting Europe Facilty von geplanten 9,2 Mrd. auf eine Mrd. Euro zusammenzustreichen und dabei speziell den Breitband-Ausbau auf dem Budget-Tisch zu opfern. Damit bleibt eine erhoffte positive Signalwirkung aus - obwohl gerade die Politik ohnehin oft hinderlich für Smart-City-Projekte ist.
"Vor allem in großen Städten sind wir oft mit der Herausforderung konfrontiert, dass noch eine Generation von Entscheidungsträgern im Amt ist, die mit den Möglichkeiten der Telekommunikation nicht restlos vertraut ist", erklärt Tauber. So fehlt oft das Verständnis für die Bedeutung von Glasfasern als Infrastruktur. Hinzu kommt, dass einzelne Smart-City-Projekte in der Regel nur einige bis einige zehn Mio. Euro schwer und damit zu klein für große Investmentbanken sind - obwohl eigentlich ausreichend finanzielle Mittel verfügbar wären. Die FTTH Conference soll auch dazu beitragen, solche Probleme zu überwinden.
SparxSystems Software: Aus alt mach neu
Veröffentlicht am 18.02.2013 11:51:46
Softwarelösungen werden heute im Alltag und auch für Unternehmen immer wichtiger. Gleichzeitig unterliegen diese Lösungen durch Veränderungen in der Technologie wie auch durch wachsende Anforderungen der Kunden einem stetigen Wandel. Behindert wird die Anpassung der Applikationen durch die hohen Kosten, die mit der laufenden Softwareentwicklung verbunden sind. Schätzungen gehen davon aus, dass in vielen Unternehmen bis zu 90 Prozent der Softwarekosten für die Erhaltung und Modernisierung älterer Unternehmenssoftware aufgewendet werden müssen. Dazu Peter Lieber, Inhaber von SparxSystems Software und Leiter des ARTIST-Teams im Unternehmen: "Wir freuen uns, dass wir in diesem zukunftsweisenden Forschungsprojekt eine zentrale Aufgabe erfüllen dürfen. Durch die Überführung der Altsysteme in Modelle stellen wir sicher, dass bestehende Anwendungen wesentlich kostengünstiger am aktuellsten Stand gehalten werden können."
Im über drei Jahre laufenden, europäischen Forschungsprojekt ARTIST (advanced software-based service provisioning and migration of legacy software) arbeiten Forscherinnen und Forscher sowie hochspezialisierte Unternehmen zusammen. Das Projekt wird von der Europäischen Kommission im Rahmen des 7. Rahmenprogramms unter dem Förderziel "Cloud Computing, Internet der Dienste und fortschrittliche Softwareentwicklung" gefördert. Es verfolgt einen modellbasierten Ansatz zur Software-Modernisierung, um die Migration und Weiterentwicklung von Altanwendungen zu unterstützen und weitgehend zu automatisieren.
Dabei kommen Techniken des "Model Driven Engineering" zum Einsatz, um zuerst plattform-unabhängige Modelle aus der Altanwendung abzuleiten und mit ihrer Hilfe die neue Anwendung zu erstellen. Dieses Vorgehen vermindert Risiko, Zeitaufwand und Kosten der Software-Migration und senkt die Hemmschwelle, die Softwarehersteller und IT-Dienstleistungsunternehmen davon abhält, die Vorteile von Cloud Computing und Software-as-a-Service und der damit verbundenen Geschäftsmodelle zu nutzen. "Der Übergang von eigenen Softwarelösungen zu solchen, die als Service über das Internet bezogen werden, ist ein Paradigmenwechsel, der höchste Anforderungen stellt. Die Partner in diesem Projekt wollen Grundlagen dafür schaffen, dass dieser Umstieg für Unternehmen leichter wird", erläutert Lieber.
Altanwendungen erfüllen für Unternehmen lebenswichtige Aufgaben, sind aber aufgrund ihrer Entwicklungsgeschichte nicht auf moderne Anforderungen vorbereitet. Daher konzipiert das ARTIST-Projekt Methoden und Werkzeuge, Altanwendungen zu analysieren und sie für neueste Technologien wie z.B. Cloud- und Mobile Computing bzw. erhöhte IT-Sicherheit vorzubereiten. Dabei gilt es aber auch, Machbarkeit und Aufwand abzuschätzen und geeignete Umstellungsszenarien zu definieren.
An ARTIST sind neben zwei namhaften Universitäten (TU-Wien aus Österreich und ICCS/NTUA aus Griechenland) und drei international anerkannte Forschungseinrichtungen (Tecnalia aus Spanien, Fraunhofer IAO aus Deutschland und INRIA aus Frankreich) auch zwei multinationale Konzerne (ATOS aus Spanien und Engineering aus Italien) und drei spezialisierte KMU (ATC aus Griechenland, SPIKES aus Belgien und SparxSystems Software aus Österreich) beteiligt.
Sparx Systems wurde 1996 in Australien gegründet und ist Hersteller von Enterprise Architect, einer weltweit erfolgreichen UML Modellierungsplattform. Enterprise Architect dient zum Entwurf und zur Herstellung von Softwaresystemen, zur Geschäftsprozessmodellierung und zur Modellierung beliebiger Prozesse oder Systeme. Enterprise Architect in der aktuellen Version 10 wird von über 320.000 Nutzern für seine Leistungsfähigkeit zu einem unschlagbaren Preis geschätzt. Enterprise Architect unterstützt unter anderem UML 2.4, BPMN 2.0, SOMF 2.1 SysML 1.3, DDS und TOGAF. Die umfassende Integration in andere Entwicklungsumgebungen wie VS Studio, TFS sowie Eclipse und die Anbindung an Versionierungssysteme machen es zum idealen Bindeglied in jeder Prozesslandschaft.
Um den zahlreichen Kunden in ihrer Sprache und Zeitzone bestes Service rund um Enterprise Architect bieten zu können, wurde 2004 die SparxSystems Software GmbH gegründet, die die gesamte deutschsprachige Region beim Lizenzerwerb sowie durch Training und Consulting unterstützt.
Veröffentlicht am 18.02.2013 11:51:46
Softwarelösungen werden heute im Alltag und auch für Unternehmen immer wichtiger. Gleichzeitig unterliegen diese Lösungen durch Veränderungen in der Technologie wie auch durch wachsende Anforderungen der Kunden einem stetigen Wandel. Behindert wird die Anpassung der Applikationen durch die hohen Kosten, die mit der laufenden Softwareentwicklung verbunden sind. Schätzungen gehen davon aus, dass in vielen Unternehmen bis zu 90 Prozent der Softwarekosten für die Erhaltung und Modernisierung älterer Unternehmenssoftware aufgewendet werden müssen. Dazu Peter Lieber, Inhaber von SparxSystems Software und Leiter des ARTIST-Teams im Unternehmen: "Wir freuen uns, dass wir in diesem zukunftsweisenden Forschungsprojekt eine zentrale Aufgabe erfüllen dürfen. Durch die Überführung der Altsysteme in Modelle stellen wir sicher, dass bestehende Anwendungen wesentlich kostengünstiger am aktuellsten Stand gehalten werden können."
Im über drei Jahre laufenden, europäischen Forschungsprojekt ARTIST (advanced software-based service provisioning and migration of legacy software) arbeiten Forscherinnen und Forscher sowie hochspezialisierte Unternehmen zusammen. Das Projekt wird von der Europäischen Kommission im Rahmen des 7. Rahmenprogramms unter dem Förderziel "Cloud Computing, Internet der Dienste und fortschrittliche Softwareentwicklung" gefördert. Es verfolgt einen modellbasierten Ansatz zur Software-Modernisierung, um die Migration und Weiterentwicklung von Altanwendungen zu unterstützen und weitgehend zu automatisieren.
Dabei kommen Techniken des "Model Driven Engineering" zum Einsatz, um zuerst plattform-unabhängige Modelle aus der Altanwendung abzuleiten und mit ihrer Hilfe die neue Anwendung zu erstellen. Dieses Vorgehen vermindert Risiko, Zeitaufwand und Kosten der Software-Migration und senkt die Hemmschwelle, die Softwarehersteller und IT-Dienstleistungsunternehmen davon abhält, die Vorteile von Cloud Computing und Software-as-a-Service und der damit verbundenen Geschäftsmodelle zu nutzen. "Der Übergang von eigenen Softwarelösungen zu solchen, die als Service über das Internet bezogen werden, ist ein Paradigmenwechsel, der höchste Anforderungen stellt. Die Partner in diesem Projekt wollen Grundlagen dafür schaffen, dass dieser Umstieg für Unternehmen leichter wird", erläutert Lieber.
Altanwendungen erfüllen für Unternehmen lebenswichtige Aufgaben, sind aber aufgrund ihrer Entwicklungsgeschichte nicht auf moderne Anforderungen vorbereitet. Daher konzipiert das ARTIST-Projekt Methoden und Werkzeuge, Altanwendungen zu analysieren und sie für neueste Technologien wie z.B. Cloud- und Mobile Computing bzw. erhöhte IT-Sicherheit vorzubereiten. Dabei gilt es aber auch, Machbarkeit und Aufwand abzuschätzen und geeignete Umstellungsszenarien zu definieren.
An ARTIST sind neben zwei namhaften Universitäten (TU-Wien aus Österreich und ICCS/NTUA aus Griechenland) und drei international anerkannte Forschungseinrichtungen (Tecnalia aus Spanien, Fraunhofer IAO aus Deutschland und INRIA aus Frankreich) auch zwei multinationale Konzerne (ATOS aus Spanien und Engineering aus Italien) und drei spezialisierte KMU (ATC aus Griechenland, SPIKES aus Belgien und SparxSystems Software aus Österreich) beteiligt.
Sparx Systems wurde 1996 in Australien gegründet und ist Hersteller von Enterprise Architect, einer weltweit erfolgreichen UML Modellierungsplattform. Enterprise Architect dient zum Entwurf und zur Herstellung von Softwaresystemen, zur Geschäftsprozessmodellierung und zur Modellierung beliebiger Prozesse oder Systeme. Enterprise Architect in der aktuellen Version 10 wird von über 320.000 Nutzern für seine Leistungsfähigkeit zu einem unschlagbaren Preis geschätzt. Enterprise Architect unterstützt unter anderem UML 2.4, BPMN 2.0, SOMF 2.1 SysML 1.3, DDS und TOGAF. Die umfassende Integration in andere Entwicklungsumgebungen wie VS Studio, TFS sowie Eclipse und die Anbindung an Versionierungssysteme machen es zum idealen Bindeglied in jeder Prozesslandschaft.
Um den zahlreichen Kunden in ihrer Sprache und Zeitzone bestes Service rund um Enterprise Architect bieten zu können, wurde 2004 die SparxSystems Software GmbH gegründet, die die gesamte deutschsprachige Region beim Lizenzerwerb sowie durch Training und Consulting unterstützt.
Ultraschall vergrößert Festplatten
Veröffentlicht am 15.02.2013 20:06:21
Corvallis - US-Ingenieure haben eine Methode entwickelt, um mehr Speicherkapazität aus magnetischen Speichermedien wie beispielsweise Festplatten herauszukitzeln. "Es besteht immer ein Bedarf an Lösungen, die mehr Information auf weniger Platz speichern, weniger kosten und weniger Strom verbrauchen", betont Pallavi Dhagat, Extraordinarius für Elektro- und Computertechnik an der Oregon State University (OSU). Ihr Team setzt daher auf den gezielten Einsatz von Ultraschall beim Schreibvorgang, um die Platte leicht aufzuweichen - denn dadurch passen mehr Daten auf die gleiche Fläche.
Wenngleich Alternativen wie Flash auf dem Vormarsch sind, sind magnetische Speichermedien bis heute nicht aus dem Alltag wegzudenken. Festplatten und Magnetstreifen auf EC- und Kreditkarten nutzen nach wie vor die vergleichsweise günstige, zuverlässige Speichermethode. Allerdings stößt die Magnetspeicher-Technologie langsam an die Grenzen des Möglichen, so Dhagat. Ein Ansatz, damit Medien wie Festplatten noch mehr Daten fassen können, ist, sie an dem Punkt, wo gespeichert werden soll, kurz aufzuheizen und dadurch aufzuweichen. Das Problem dabei ist, dass sich die Hitze leicht weiter ausbreitet als erwünscht.
Der neue OSU-Ansatz nutzt nun hochfrequenten Schall, um im Prinzip den gleichen Effekt auszulösen. Das Verfahren beschallt dabei den Bereich des Speichermediums, der beschrieben werden soll. Dadurch wird das Material vorübergehend elastisch und kann sich ein klein wenig ausdehnen, wodurch mehr Daten Platz finden. Endet die Ultraschall-Behandlung, verfestigt sich der Magnetspeicher sofort wieder. Ein Vorteil dieses Zugangs ist laut OSU, dass es keinerlei Probleme mit ausufernder Erwärmung gibt.
Das OSU-Team hat sein akustisch unterstütztes Magnetspeicherverfahren diese Woche zum Patent angemeldet und blickt indes über den Tellerrand magnetischer Speichermedien hinaus. Die Forscher gehen davon aus, dass das Prinzip auch auf Halbleiterspeicher wie Flash übertragbar ist. "Die Technologie sollte uns erlauben, die Vorteile von Festkörperelektronik und Magnetspeicherung zu vereinen und nichtflüchtige Speicherlösungen zu schaffen, die mehr Daten auf weniger Platz fassen, bei weniger Energieverbrauch", so Albrecht Jander, Extraordinarius für Elektrotechnik an der OSU. Daher wird weitergeforscht, mit welchen Materialien der Ansatz wie gut funktioniert,
Veröffentlicht am 15.02.2013 20:06:21
Corvallis - US-Ingenieure haben eine Methode entwickelt, um mehr Speicherkapazität aus magnetischen Speichermedien wie beispielsweise Festplatten herauszukitzeln. "Es besteht immer ein Bedarf an Lösungen, die mehr Information auf weniger Platz speichern, weniger kosten und weniger Strom verbrauchen", betont Pallavi Dhagat, Extraordinarius für Elektro- und Computertechnik an der Oregon State University (OSU). Ihr Team setzt daher auf den gezielten Einsatz von Ultraschall beim Schreibvorgang, um die Platte leicht aufzuweichen - denn dadurch passen mehr Daten auf die gleiche Fläche.
Wenngleich Alternativen wie Flash auf dem Vormarsch sind, sind magnetische Speichermedien bis heute nicht aus dem Alltag wegzudenken. Festplatten und Magnetstreifen auf EC- und Kreditkarten nutzen nach wie vor die vergleichsweise günstige, zuverlässige Speichermethode. Allerdings stößt die Magnetspeicher-Technologie langsam an die Grenzen des Möglichen, so Dhagat. Ein Ansatz, damit Medien wie Festplatten noch mehr Daten fassen können, ist, sie an dem Punkt, wo gespeichert werden soll, kurz aufzuheizen und dadurch aufzuweichen. Das Problem dabei ist, dass sich die Hitze leicht weiter ausbreitet als erwünscht.
Der neue OSU-Ansatz nutzt nun hochfrequenten Schall, um im Prinzip den gleichen Effekt auszulösen. Das Verfahren beschallt dabei den Bereich des Speichermediums, der beschrieben werden soll. Dadurch wird das Material vorübergehend elastisch und kann sich ein klein wenig ausdehnen, wodurch mehr Daten Platz finden. Endet die Ultraschall-Behandlung, verfestigt sich der Magnetspeicher sofort wieder. Ein Vorteil dieses Zugangs ist laut OSU, dass es keinerlei Probleme mit ausufernder Erwärmung gibt.
Das OSU-Team hat sein akustisch unterstütztes Magnetspeicherverfahren diese Woche zum Patent angemeldet und blickt indes über den Tellerrand magnetischer Speichermedien hinaus. Die Forscher gehen davon aus, dass das Prinzip auch auf Halbleiterspeicher wie Flash übertragbar ist. "Die Technologie sollte uns erlauben, die Vorteile von Festkörperelektronik und Magnetspeicherung zu vereinen und nichtflüchtige Speicherlösungen zu schaffen, die mehr Daten auf weniger Platz fassen, bei weniger Energieverbrauch", so Albrecht Jander, Extraordinarius für Elektrotechnik an der OSU. Daher wird weitergeforscht, mit welchen Materialien der Ansatz wie gut funktioniert,
Folterknecht: Roboterratte quält Artgenossen
Veröffentlicht am 15.02.2013 20:06:21
Tokio - Als ob das Leben für Laborratten nicht ohnehin schon schlimm genug wäre: Forscher der Waseda University in Tokio haben eine neuartige Roboterversion der für verschiedenste Experimente eingesetzten Nagetiere entwickelt, die den einzigen Zweck verfolgt, diese in noch schwerere Stress- und Angstzustände zu versetzen. Die "WR-3", so der Name des aktuellen Prototyps, ist dabei darauf programmiert, ihren echten Artgenossen mittels physischer Attacken derart zuzusetzen, dass diese in eine tiefe Depression verfallen. Durch dieses Vorgehen erhoffen sich die Forscher, effektivere psychologische Behandlungsmodelle zu entwickeln, die letztendlich auch entsprechende Ansätze in der Humanmedizin verbessern sollen.
"In der Medizin werden Tiere oft dazu eingesetzt, um verschiedene Behandlungsmethoden für menschliche Krankheiten - dazu gehören auch geistige Störungen wie etwa Depressionen - zu erproben", zitiert der NewScientist den zuständigen Projektleiter Hiroyuki Ishii. Die gängige Methode, um Ratten und Mäuse in starke Depressionszustände zu versetzen, sei die Beeinträchtigung ihres Geruchssinns oder wenn sie dazu gezwungen werden, lange Zeiträume in Wasser zu schwimmen, schildert der Experte. "Keine dieser Methoden ist wirklich zufriedenstellend, wenn es darum geht, eine Depression zu erzeugen, wie sie auch bei Menschen besteht", betont Ishii. Mit der WR-3 soll sich das nun grundlegend ändern.
Im Rahmen der Umsetzung ihrer Versuchsreihe haben der japanische Wissenschaftler und sein Team die Roboterratte auf zwei unterschiedliche Gruppen mit echten Tieren losgelassen. Gruppe A hat es dabei besonders schlecht erwischt: Hier wurden die Tiere gnadenlos konstant von ihrem künstlichen Pendant belästigt und durch physische Attacken in extreme Stresssituationen versetzt. In einer zweiten Kontrollgruppe mussten die kleinen Vierbeiner hingegen nur dann mit automatischen Angriffen von WR-3 rechnen, wenn sie sich bewegten.
Das Ergebnis der für die Tiere durchwegs sehr grausamen Experimente: "Wir haben herausgefunden, dass sich die stärkste Form von Depression dann erreichen lässt, wenn der Roboter ältere Ratten, die in ihrer Jugend bereits ständig schikaniert worden sind, konstant attackiert", fasst Ishii zusammen. Als Grundannahme gingen die Forscher davon aus, dass sich depressivere Tiere weniger bewegen als ihre besser gelaunten Artgenossen.
Die Entwicklung der Roboterratte WR-3 ist aus Sicht der medizinischen Forschung ein wichtiger Schritt nach vorne. "Nun haben wir die Möglichkeit, auf herkömmliche Methoden zur Stresserzeugung bei Labortieren zu verzichten", erklärt Ishii. Ob und in welchem Ausmaß der neue Ansatz tatsächlich zu besseren Therapiemodellen für menschliche Erkrankungen führen kann, ist zum jetzigen Zeitpunkt aber noch völlig unklar.
Veröffentlicht am 15.02.2013 20:06:21
Tokio - Als ob das Leben für Laborratten nicht ohnehin schon schlimm genug wäre: Forscher der Waseda University in Tokio haben eine neuartige Roboterversion der für verschiedenste Experimente eingesetzten Nagetiere entwickelt, die den einzigen Zweck verfolgt, diese in noch schwerere Stress- und Angstzustände zu versetzen. Die "WR-3", so der Name des aktuellen Prototyps, ist dabei darauf programmiert, ihren echten Artgenossen mittels physischer Attacken derart zuzusetzen, dass diese in eine tiefe Depression verfallen. Durch dieses Vorgehen erhoffen sich die Forscher, effektivere psychologische Behandlungsmodelle zu entwickeln, die letztendlich auch entsprechende Ansätze in der Humanmedizin verbessern sollen.
"In der Medizin werden Tiere oft dazu eingesetzt, um verschiedene Behandlungsmethoden für menschliche Krankheiten - dazu gehören auch geistige Störungen wie etwa Depressionen - zu erproben", zitiert der NewScientist den zuständigen Projektleiter Hiroyuki Ishii. Die gängige Methode, um Ratten und Mäuse in starke Depressionszustände zu versetzen, sei die Beeinträchtigung ihres Geruchssinns oder wenn sie dazu gezwungen werden, lange Zeiträume in Wasser zu schwimmen, schildert der Experte. "Keine dieser Methoden ist wirklich zufriedenstellend, wenn es darum geht, eine Depression zu erzeugen, wie sie auch bei Menschen besteht", betont Ishii. Mit der WR-3 soll sich das nun grundlegend ändern.
Im Rahmen der Umsetzung ihrer Versuchsreihe haben der japanische Wissenschaftler und sein Team die Roboterratte auf zwei unterschiedliche Gruppen mit echten Tieren losgelassen. Gruppe A hat es dabei besonders schlecht erwischt: Hier wurden die Tiere gnadenlos konstant von ihrem künstlichen Pendant belästigt und durch physische Attacken in extreme Stresssituationen versetzt. In einer zweiten Kontrollgruppe mussten die kleinen Vierbeiner hingegen nur dann mit automatischen Angriffen von WR-3 rechnen, wenn sie sich bewegten.
Das Ergebnis der für die Tiere durchwegs sehr grausamen Experimente: "Wir haben herausgefunden, dass sich die stärkste Form von Depression dann erreichen lässt, wenn der Roboter ältere Ratten, die in ihrer Jugend bereits ständig schikaniert worden sind, konstant attackiert", fasst Ishii zusammen. Als Grundannahme gingen die Forscher davon aus, dass sich depressivere Tiere weniger bewegen als ihre besser gelaunten Artgenossen.
Die Entwicklung der Roboterratte WR-3 ist aus Sicht der medizinischen Forschung ein wichtiger Schritt nach vorne. "Nun haben wir die Möglichkeit, auf herkömmliche Methoden zur Stresserzeugung bei Labortieren zu verzichten", erklärt Ishii. Ob und in welchem Ausmaß der neue Ansatz tatsächlich zu besseren Therapiemodellen für menschliche Erkrankungen führen kann, ist zum jetzigen Zeitpunkt aber noch völlig unklar.
Surface RT startet in den heimischen Handel
Veröffentlicht am 14.02.2013 16:19:06
Wien - Heute, Donnerstag, startet Microsofts Tablet Surface RT in der gesamten DACH-Region und etlichen weiteren europäischen Ländern in den Handel. Damit bekommen Interessenten deutlich leichteren Zugang zu dem Parade-Gerät für die neue Windows-Generation. Dementsprechend werden sich nun verstärkt auch Kunden hierzulande davon überzeugen können, dass das mit Windows 8 eingeführte neue Nutzerinterface, das am klassischen PC nicht unumstritten ist, auf Touch-Tablets eine gute Figur macht.
Dass das Microsoft-Tablet bei uns erst fast vier Monate nach dem Start von Windows 8 breit verfügbar wird, liegt Microsoft zufolge daran, dass der Konzern sich damit praktisch auf Neuland wagt. "Bis auf die Xbox-Sparte sind wir de facto neu im Device-Geschäft", meint Stefan Sennebogen, Business Group Lead Windows bei Microsoft Österreich. Daher erfolgte ein eher vorsichtiger, gestaffelter Launch - was eigentlich schade ist, denn Surface RT konnte beim ersten Antesten anlässlich der Launch-Veranstaltung in Wien positiv überraschen.</p>
Im kurzen Hands-on (ein ausführlicherer folgt in Kürze) konnte Surface RT durch eine sehr genaue Touch-Erkennung überzeugen. Im neuen Nutzerinterface ist das angesichts großer Schaltelemente zwar keine Überraschung, doch wer beispielsweise mit den vorinstallierten Office-Anwendungen auf der Desktop-Oberfläche landet, ist auf dem 10,6-Zoll-Display mit relativ kleinen Symbolen konfrontiert. Auch diese sind auf Anhieb präzise zu treffen. Zwar sind manche Touch-Gesten zunächst etwas ungewohnt, wenn man regelmäßig andere mobile Betriebssysteme nutzt, doch ergeben sie ein funktionelles Gesamtkonzept bei einem Gerät, das angenehm leicht in der Hand liegt.
Ein Vorteil des hierzulande etwas späteren Verkaufsstarts ist, dass User bereits eine größere Auswahl an Apps im Windows Store vorfinden. Von iOS- oder Android-Dimensionen ist Microsoft zwar noch ein Stück entfernt, doch gibt es über 26.000 Apps von Spielen bis hin zu regionalen Informationsangeboten beispielsweise öffentlicher Verkehrsanbieter. Gefällig ist übrigens, dass selbst vorinstallierte Apps komplett vom System entfernt werden können - beispielsweise, wenn man Surface RT rein als Media-Tablet nutzen will und daher die Office-Anwendungen nicht benötigt.
Zwar ist Surface RT grundsätzlich ein Alround-Gerät und kann speziell in Verbindung mit den optionalen Touch- oder Type-Covern mit integriertem Keyboard auch gut als eine Art Mini-Notebook herhalten. Seine Stärken spielt es aber eher im Entertainment-Bereich aus, beispielsweise dank des Zugangs zum umfangreichen Full-HD-Filmangebot von Xbox Video. Wer auch eine Xbox 360 besitzt, kann dank intelligenter Interaktion der Geräte Filme nach dem Heimkommen einfach via Konsole auf dem großen Bildschirm weiterschauen. User ohne Microsoft-Konsole können immerhin noch den HD-Videoausgang nutzen.
Ein kleiner Schwachpunkt von Surface RT ist, dass Windows RT unter anderem dank einer Recovery-Partition rund 16 Gigabyte an internem Speicher frisst, was vor allem beim 32-GB-Modell doch etwas unangenehm auffällt. Doch im Gegensatz zu Apple- und manchen Android-Tablets bietet Surface RT sowohl einen USB-Port als auch einen microSDXC-Kartenslot, sodass Nutzer den verfügbaren Speicherplatz leicht erweitern und Multimedia-Dateien auch einfach mittels Datenträgern wie USB-Sticks auf das Tablet transferieren können.
Während hierzulande Surface RT endlich Fahrt aufnimmt - bislang war das Gerät in Deutschland nur via Online-Shop, in Österreich und der Schweiz gar nicht offiziell erhältlich - ist in Nordamerika am Samstag bereits der große Bruder Surface Pro gestartet. Dieser nutzt im Gegensatz zu Surface RT eine Intel-CPU und damit ein vollwertiges Windows 8 Professional und hat Microsoft zum Launch ein Wechselbad der Gewfühle beschert. Einerseits musste der Konzern eher kritische Reviews in US-Medien zu Kenntnis nehmen, anderseits war das Surface Pro Microsoft zufolge binnen kürzester Zeit ausverkauft.
Wann auch hierzulande das Surface mit Windows 8 Pro erscheint, steht noch nicht fest. Die kleine Schwester Surface RT ist dafür ab sofort im Handel zu finden. Das 32-GB-Modell kommt auf 479 Euro, die 64-GB-Version kostet 100 Euro mehr. Beide Varianten sind zudem für 100 Euro mehr gleich mit Touch Cover erhältlich, separat kostet das Tastatur-Cover etwas mehr.
Veröffentlicht am 14.02.2013 16:19:06
Wien - Heute, Donnerstag, startet Microsofts Tablet Surface RT in der gesamten DACH-Region und etlichen weiteren europäischen Ländern in den Handel. Damit bekommen Interessenten deutlich leichteren Zugang zu dem Parade-Gerät für die neue Windows-Generation. Dementsprechend werden sich nun verstärkt auch Kunden hierzulande davon überzeugen können, dass das mit Windows 8 eingeführte neue Nutzerinterface, das am klassischen PC nicht unumstritten ist, auf Touch-Tablets eine gute Figur macht.
Dass das Microsoft-Tablet bei uns erst fast vier Monate nach dem Start von Windows 8 breit verfügbar wird, liegt Microsoft zufolge daran, dass der Konzern sich damit praktisch auf Neuland wagt. "Bis auf die Xbox-Sparte sind wir de facto neu im Device-Geschäft", meint Stefan Sennebogen, Business Group Lead Windows bei Microsoft Österreich. Daher erfolgte ein eher vorsichtiger, gestaffelter Launch - was eigentlich schade ist, denn Surface RT konnte beim ersten Antesten anlässlich der Launch-Veranstaltung in Wien positiv überraschen.</p>
Im kurzen Hands-on (ein ausführlicherer folgt in Kürze) konnte Surface RT durch eine sehr genaue Touch-Erkennung überzeugen. Im neuen Nutzerinterface ist das angesichts großer Schaltelemente zwar keine Überraschung, doch wer beispielsweise mit den vorinstallierten Office-Anwendungen auf der Desktop-Oberfläche landet, ist auf dem 10,6-Zoll-Display mit relativ kleinen Symbolen konfrontiert. Auch diese sind auf Anhieb präzise zu treffen. Zwar sind manche Touch-Gesten zunächst etwas ungewohnt, wenn man regelmäßig andere mobile Betriebssysteme nutzt, doch ergeben sie ein funktionelles Gesamtkonzept bei einem Gerät, das angenehm leicht in der Hand liegt.
Ein Vorteil des hierzulande etwas späteren Verkaufsstarts ist, dass User bereits eine größere Auswahl an Apps im Windows Store vorfinden. Von iOS- oder Android-Dimensionen ist Microsoft zwar noch ein Stück entfernt, doch gibt es über 26.000 Apps von Spielen bis hin zu regionalen Informationsangeboten beispielsweise öffentlicher Verkehrsanbieter. Gefällig ist übrigens, dass selbst vorinstallierte Apps komplett vom System entfernt werden können - beispielsweise, wenn man Surface RT rein als Media-Tablet nutzen will und daher die Office-Anwendungen nicht benötigt.
Zwar ist Surface RT grundsätzlich ein Alround-Gerät und kann speziell in Verbindung mit den optionalen Touch- oder Type-Covern mit integriertem Keyboard auch gut als eine Art Mini-Notebook herhalten. Seine Stärken spielt es aber eher im Entertainment-Bereich aus, beispielsweise dank des Zugangs zum umfangreichen Full-HD-Filmangebot von Xbox Video. Wer auch eine Xbox 360 besitzt, kann dank intelligenter Interaktion der Geräte Filme nach dem Heimkommen einfach via Konsole auf dem großen Bildschirm weiterschauen. User ohne Microsoft-Konsole können immerhin noch den HD-Videoausgang nutzen.
Ein kleiner Schwachpunkt von Surface RT ist, dass Windows RT unter anderem dank einer Recovery-Partition rund 16 Gigabyte an internem Speicher frisst, was vor allem beim 32-GB-Modell doch etwas unangenehm auffällt. Doch im Gegensatz zu Apple- und manchen Android-Tablets bietet Surface RT sowohl einen USB-Port als auch einen microSDXC-Kartenslot, sodass Nutzer den verfügbaren Speicherplatz leicht erweitern und Multimedia-Dateien auch einfach mittels Datenträgern wie USB-Sticks auf das Tablet transferieren können.
Während hierzulande Surface RT endlich Fahrt aufnimmt - bislang war das Gerät in Deutschland nur via Online-Shop, in Österreich und der Schweiz gar nicht offiziell erhältlich - ist in Nordamerika am Samstag bereits der große Bruder Surface Pro gestartet. Dieser nutzt im Gegensatz zu Surface RT eine Intel-CPU und damit ein vollwertiges Windows 8 Professional und hat Microsoft zum Launch ein Wechselbad der Gewfühle beschert. Einerseits musste der Konzern eher kritische Reviews in US-Medien zu Kenntnis nehmen, anderseits war das Surface Pro Microsoft zufolge binnen kürzester Zeit ausverkauft.
Wann auch hierzulande das Surface mit Windows 8 Pro erscheint, steht noch nicht fest. Die kleine Schwester Surface RT ist dafür ab sofort im Handel zu finden. Das 32-GB-Modell kommt auf 479 Euro, die 64-GB-Version kostet 100 Euro mehr. Beide Varianten sind zudem für 100 Euro mehr gleich mit Touch Cover erhältlich, separat kostet das Tastatur-Cover etwas mehr.
Forscher machen GPS bis zu 90 Prozent genauer
Veröffentlicht am 14.02.2013 16:18:56
Madrid - Forscher an der Universität Carlos III zu Madrid (UC3M) haben ein System entwickelt, das ihren Angaben zufolge die GPS-Positionierung für Autos innerhalb von Städten um bis zu 90 Prozent genauer macht. Um das zu ermöglichen, setzen die Ingenieure auf eine Verknüpfung der GPS-Daten mit denen aus Beschleunigungsmessern und Gyroskopen - günstige Sensoren also, die heute in praktisch jedem Smartphone verbaut sind. Als nächsten Schritt will das Team versuchen, für die Methode einfach Handy-Sensoren statt einem eigenen Gerät zu nutzen.
"Es ist uns gelungen, die Genauigkeit der Bestimmung einer Fahrzeugposition in kritischen Fällen um 50 bis 90 Prozent zu verbessern", so David Martin vom Systems Intelligence Laboratory der UC3M. Am stärksten macht sich dies dem Team zufolge in Städten bemerkbar, wo viele Hindernisse wie hohe Gebäude GPS-Signale stören. Davon profitieren sollen letztendlich auch intelligente Transportsysteme bis hin zu selbstfahrenden Autos.
Die Positionierungsgenauigkeit in Fahrzeug-Systemen gängiger GPS-Empfänger liegt prinzipiell bei etwa 15 Metern, doch gerade im urbanen Raum leidet sie oft. Hindernisse wie Gebäude, Bäume und enge Straßenschluchten lenken GPS-Signale ab, sodass die Positionsbestimmung laut UC3M oft nicht einmal auf 50 Meter genau erfolgt. Bisweilen - beispielsweise in Tunnels - ist gar kein Signal mehr verfügbar. Zwar nutzen aktuelle GPS-Systeme Kartendaten, um dann noch eine ungefähre Standortbestimmung zu ermöglichen. Das sei aber für intelligente Transportsysteme nicht ausreichend, so Martin.
Der aktuelle UC3M-Prototyp dagegen kann den Forschern zufolge auch in der Stadt die Position eines Fahrzeugs auf ein bis zwei Meter genau bestimmen. Möglich wird das, weil bei dem System eine spezielle Software das GPS-Signal mit Daten aus Bewegungssensoren - drei Beschleunigungsmesser und drei Gyroskope - verknüpft. Die Architektur macht sich kontextabhängige Information zunutze. Ein spezieller Algorithmus erlaubt es, Probleme mit dem GPS-Signal bis hin zu Totalausfällen zu kompensieren.
Der Prototyp kann den Forschern zufolge in jeglichem Fahrzeug zum Einsatz kommen. So nutzen sie das System schon in einem Forschungsfahrzeug der Universität, das der Arbeit an intelligenten Fahrzeugsystemen dient. So soll die genauere Positionierungs-Technologie langfristig Anwendung im Bereich kooperativer Kollisionswarnsysteme oder selbstfahrender Fahrzeuge finden. Dabei könnte anstelle eines eigenen Geräts in Zukunft einfach das Smartphone zum Einsatz kommen. Immerhin haben aktuelle Modelle etliche Sensoren, darunter Beschleunigungsmesser und Dreiachsen-Gyroskop. Somit besitzt praktisch jeder bereits die Hardware - gelingt es, das System für Smartphones umzusetzen, wäre es also noch billiger.
Veröffentlicht am 14.02.2013 16:18:56
Madrid - Forscher an der Universität Carlos III zu Madrid (UC3M) haben ein System entwickelt, das ihren Angaben zufolge die GPS-Positionierung für Autos innerhalb von Städten um bis zu 90 Prozent genauer macht. Um das zu ermöglichen, setzen die Ingenieure auf eine Verknüpfung der GPS-Daten mit denen aus Beschleunigungsmessern und Gyroskopen - günstige Sensoren also, die heute in praktisch jedem Smartphone verbaut sind. Als nächsten Schritt will das Team versuchen, für die Methode einfach Handy-Sensoren statt einem eigenen Gerät zu nutzen.
"Es ist uns gelungen, die Genauigkeit der Bestimmung einer Fahrzeugposition in kritischen Fällen um 50 bis 90 Prozent zu verbessern", so David Martin vom Systems Intelligence Laboratory der UC3M. Am stärksten macht sich dies dem Team zufolge in Städten bemerkbar, wo viele Hindernisse wie hohe Gebäude GPS-Signale stören. Davon profitieren sollen letztendlich auch intelligente Transportsysteme bis hin zu selbstfahrenden Autos.
Die Positionierungsgenauigkeit in Fahrzeug-Systemen gängiger GPS-Empfänger liegt prinzipiell bei etwa 15 Metern, doch gerade im urbanen Raum leidet sie oft. Hindernisse wie Gebäude, Bäume und enge Straßenschluchten lenken GPS-Signale ab, sodass die Positionsbestimmung laut UC3M oft nicht einmal auf 50 Meter genau erfolgt. Bisweilen - beispielsweise in Tunnels - ist gar kein Signal mehr verfügbar. Zwar nutzen aktuelle GPS-Systeme Kartendaten, um dann noch eine ungefähre Standortbestimmung zu ermöglichen. Das sei aber für intelligente Transportsysteme nicht ausreichend, so Martin.
Der aktuelle UC3M-Prototyp dagegen kann den Forschern zufolge auch in der Stadt die Position eines Fahrzeugs auf ein bis zwei Meter genau bestimmen. Möglich wird das, weil bei dem System eine spezielle Software das GPS-Signal mit Daten aus Bewegungssensoren - drei Beschleunigungsmesser und drei Gyroskope - verknüpft. Die Architektur macht sich kontextabhängige Information zunutze. Ein spezieller Algorithmus erlaubt es, Probleme mit dem GPS-Signal bis hin zu Totalausfällen zu kompensieren.
Der Prototyp kann den Forschern zufolge in jeglichem Fahrzeug zum Einsatz kommen. So nutzen sie das System schon in einem Forschungsfahrzeug der Universität, das der Arbeit an intelligenten Fahrzeugsystemen dient. So soll die genauere Positionierungs-Technologie langfristig Anwendung im Bereich kooperativer Kollisionswarnsysteme oder selbstfahrender Fahrzeuge finden. Dabei könnte anstelle eines eigenen Geräts in Zukunft einfach das Smartphone zum Einsatz kommen. Immerhin haben aktuelle Modelle etliche Sensoren, darunter Beschleunigungsmesser und Dreiachsen-Gyroskop. Somit besitzt praktisch jeder bereits die Hardware - gelingt es, das System für Smartphones umzusetzen, wäre es also noch billiger.
Personenzählsystem schafft Sicherheit
Veröffentlicht am 14.02.2013 16:18:44
Zu welcher Zeit kommen wie viele Personen in meine Filiale? Zu welcher Tageszeit lässt sich der Kunde eher nur beraten, wann kauft er? Nach wie viel Zeit verlässt er den Laden wieder? Entsprechen meine Öffnungszeiten dem Kundenbedürfnis? Was bewirkt eine Verkaufsmassnahme oder Werbekampagne, ein neugestaltetes Schaufenster oder die veränderte Warenpräsentation? Wie optimiere ich den Personaleinsatz und die Arbeitszeiten? In welchem Shop arbeitet das Personal besonders erfolgreich? Welcher Standort eignet sich gut, welcher erbringt die benötigte Kundenfrequenz nicht? Fragen, die jeden Geschäftsführer, Marketingleiter beschäftigen. Das innovative, präzise und höchst zuverlässige Personenzählsystem PeCo (People Counter) von Lase liefert diese Daten in Echtzeit exakt auf den Bildschirm und liefert so wichtige Entscheidungsgrundlagen. Der Anwender kann verschiedenste Auswertungen unmittelbar erstellen. Eine Stundenauflösung tabellarisch oder graphisch, eine Wochenübersicht mit Vorwochenvergleich oder eine Jahresübersicht, verglichen mit dem Vorjahr usw.
Dank dem grossen Messbereich wird dieses System auch im Sicherheitsbereich eingesetzt. Der Zugang von grossen Menschenmengen in einen abgegrenzten Bereich muss mit Lase PeCo kein Risiko mehr darstellen. Die Daten stehen über ein Internet-Portal unmittelbar zur Verfügung. Entwickeln sich die Zahlen kritisch, kann sofort reagiert werden. So schafft PeCo Sicherheit.
Das Messsystem besteht aus einem zwei-dimensionalen Laserscanner, der auf einer Höhe bis zu 15 Meter montiert werden kann und so eine Durchgangsbreite von bis zu 26 Meter abzudecken vermag. Das Profil der Personen, die diesen "Messvorhang" durchbrechen wird aufgenommen und die Bewegungsrichtung bestimmt. Je nach den örtlichen Gegebenheiten können auch thermische oder optische Messsensoren eingesetzt werden. Der technische Aufwand für die Installation der Geräte ist gering. Die Installation ist unsichtbar und damit vandalensicher und nicht manipulierbar. Für Outdoor-Einsätze sind spezielle Ausführungen erhältlich, welche die Messeinheiten gegen Kälte, Wärme und Nässe schützen. Der Versand der Daten kann über GSM, DSL oder über eine LWL-Verbindung erfolgen, je nachdem, was der Kunde wünscht oder vor Ort gegeben ist.
In der neuen Version 2.0 des Portals stehen neue, frei definierbare Darstellungsmöglichkeiten zur Verfügung. Eine Dynamisierung der Echtzeitdaten lassen sogenannte Ampelfunktionen zu. Wenn alles im grünen Bereich ist, wird keine Aktion ausgelöst. Anders im Falle von frei gewählten Kriterien, dann reagiert das System mit vordefinierten Aktionen. Neben den Daten über die täglichen Besucher-Frequenzen, dem Vergleich von verschiedenen Standorten und Regionen können neu von den Filialen lokale Einflüsse auf die Personenfrequenzen wie z.B. Wetter, Strassensperrungen, regionale Anlässe usw. eingegeben werden. Solche Informationen erübrigen Rückfragen aus der Zentrale, wenn die Besucherzahlen von der Norm abweichen.
Veröffentlicht am 14.02.2013 16:18:44
Zu welcher Zeit kommen wie viele Personen in meine Filiale? Zu welcher Tageszeit lässt sich der Kunde eher nur beraten, wann kauft er? Nach wie viel Zeit verlässt er den Laden wieder? Entsprechen meine Öffnungszeiten dem Kundenbedürfnis? Was bewirkt eine Verkaufsmassnahme oder Werbekampagne, ein neugestaltetes Schaufenster oder die veränderte Warenpräsentation? Wie optimiere ich den Personaleinsatz und die Arbeitszeiten? In welchem Shop arbeitet das Personal besonders erfolgreich? Welcher Standort eignet sich gut, welcher erbringt die benötigte Kundenfrequenz nicht? Fragen, die jeden Geschäftsführer, Marketingleiter beschäftigen. Das innovative, präzise und höchst zuverlässige Personenzählsystem PeCo (People Counter) von Lase liefert diese Daten in Echtzeit exakt auf den Bildschirm und liefert so wichtige Entscheidungsgrundlagen. Der Anwender kann verschiedenste Auswertungen unmittelbar erstellen. Eine Stundenauflösung tabellarisch oder graphisch, eine Wochenübersicht mit Vorwochenvergleich oder eine Jahresübersicht, verglichen mit dem Vorjahr usw.
Dank dem grossen Messbereich wird dieses System auch im Sicherheitsbereich eingesetzt. Der Zugang von grossen Menschenmengen in einen abgegrenzten Bereich muss mit Lase PeCo kein Risiko mehr darstellen. Die Daten stehen über ein Internet-Portal unmittelbar zur Verfügung. Entwickeln sich die Zahlen kritisch, kann sofort reagiert werden. So schafft PeCo Sicherheit.
Das Messsystem besteht aus einem zwei-dimensionalen Laserscanner, der auf einer Höhe bis zu 15 Meter montiert werden kann und so eine Durchgangsbreite von bis zu 26 Meter abzudecken vermag. Das Profil der Personen, die diesen "Messvorhang" durchbrechen wird aufgenommen und die Bewegungsrichtung bestimmt. Je nach den örtlichen Gegebenheiten können auch thermische oder optische Messsensoren eingesetzt werden. Der technische Aufwand für die Installation der Geräte ist gering. Die Installation ist unsichtbar und damit vandalensicher und nicht manipulierbar. Für Outdoor-Einsätze sind spezielle Ausführungen erhältlich, welche die Messeinheiten gegen Kälte, Wärme und Nässe schützen. Der Versand der Daten kann über GSM, DSL oder über eine LWL-Verbindung erfolgen, je nachdem, was der Kunde wünscht oder vor Ort gegeben ist.
In der neuen Version 2.0 des Portals stehen neue, frei definierbare Darstellungsmöglichkeiten zur Verfügung. Eine Dynamisierung der Echtzeitdaten lassen sogenannte Ampelfunktionen zu. Wenn alles im grünen Bereich ist, wird keine Aktion ausgelöst. Anders im Falle von frei gewählten Kriterien, dann reagiert das System mit vordefinierten Aktionen. Neben den Daten über die täglichen Besucher-Frequenzen, dem Vergleich von verschiedenen Standorten und Regionen können neu von den Filialen lokale Einflüsse auf die Personenfrequenzen wie z.B. Wetter, Strassensperrungen, regionale Anlässe usw. eingegeben werden. Solche Informationen erübrigen Rückfragen aus der Zentrale, wenn die Besucherzahlen von der Norm abweichen.
KI-Assistent hilft Usern beim Zähneputzen
Veröffentlicht am 14.02.2013 16:18:44
Bielefeld - Der technologische Fortschritt im Bereich der Künstlichen Intelligenz (KI) kann das Leben von Menschen mit kognitiven Behinderungen wesentlich erleichtern. Von dieser Grundidee ausgehend haben findige Wissenschaftler am CITEC (Cognitive Interaction Technology - Center of Excellence) der Universität Bielefeld eine innovative Assistenztechnologie namens "TEBRA-System" entwickelt, die betroffenen Personen in Zukunft zu deutlich mehr Unabhängigkeit verhelfen soll. Ein erster Prototyp hilft Usern etwa beim Zähneputzen. "Prinzipiell kann die Grundidee auch auf viele andere Anwendungsfelder erweitert werden", so Sven Wachsmuth, der gemeinsam mit Kollegen Thomas Hermann das Projekt leitet.
"Personen mit kognitiven Behinderungen wie Demenz, Störungen aus dem autistischen Spektrum oder Lernbehinderung haben oft Probleme mit der Ausführung von Alltagstätigkeiten", erklärt Projektmitarbeiter Christian Peters, PhD-Student am CITEC. Solche Menschen seien oftmals auf die Hilfe einer Pflegeperson angewiesen, was zu einer Einschränkung oder gar dem Verlust von Unabhängigkeit führt. "Mit einer Assistenztechnologie wie dem TEBRA-System wollen wir diesen Menschen ein Stück Unabhängigkeit zurückgeben, indem sie Alltagstätigkeiten wieder eigenständig ausführen können. Gleichzeitig können so auch die Pflegekräfte entlastet werden", betont Peters.
Die Funktionsweise des KI-gesteuerten Assistenzsystems ist denkbar einfach: Die Wissenschaftler haben einen Waschtisch mit spezieller Sensorik wie etwa Kameras, Durchflusssensor am Wasserhahn und Sensor in der Zahnbürste ausgestattet. "Über die Sensordaten wird bestimmt, in welchem Teilabschnitt der Aufgabe des Zähneputzens sich der Benutzer befindet. Das System verfolgt den Fortschritt in der Gesamtaufgabe anhand eines Handlungsrahmens. Wenn das Verhalten des Users von diesem Rahmen abweicht, werden audio-visuelle Hinweise - sogenannte 'Prompts' - auf einem am Waschtisch installierten Monitor ausgegeben", schildert Peters das Prozedere.
Dass dieser Ansatz in der Praxis sehr gut funktioniert, habe das TEBRA-System bereits bei einem Testlauf in einer Wohneinrichtung für Personen mit kognitiven Behinderungen in Bielefeld bewiesen. "Die genauen Auswertungen laufen noch. Wir konnten jedoch schon feststellen, dass die Personen aus der Zielgruppe sehr gut auf die System-Prompts ansprechen und somit mehr Teilschritte unabhängig durchführen", fasst Projektleiter Wachsmuth die Ergebnisse des Probelaufs zusammen.
Neben speziellen Wohnheimen für Menschen mit Behinderungen sehen die Bielefelder Forscher auch in Alters- und Pflegeheimen ein besonderes Anwendungspotenzial für ihre Entwicklung gegeben. "In Anbetracht des demografischen Wandels hin zu einer immer älter werdenden Bevölkerung wird die Bedeutung solcher Assistenztechnologien in Zukunft sicher noch steigen", meint PhD-Student Peters, der im Rahmen seiner Dissertation bereits seit rund vier Jahren am Projekt mitarbeitet. "Als nächstes planen wir die Erweiterung des TEBRA-Systems auf andere Aufgaben wie zum Beispiel das Rasieren."
Veröffentlicht am 14.02.2013 16:18:44
Bielefeld - Der technologische Fortschritt im Bereich der Künstlichen Intelligenz (KI) kann das Leben von Menschen mit kognitiven Behinderungen wesentlich erleichtern. Von dieser Grundidee ausgehend haben findige Wissenschaftler am CITEC (Cognitive Interaction Technology - Center of Excellence) der Universität Bielefeld eine innovative Assistenztechnologie namens "TEBRA-System" entwickelt, die betroffenen Personen in Zukunft zu deutlich mehr Unabhängigkeit verhelfen soll. Ein erster Prototyp hilft Usern etwa beim Zähneputzen. "Prinzipiell kann die Grundidee auch auf viele andere Anwendungsfelder erweitert werden", so Sven Wachsmuth, der gemeinsam mit Kollegen Thomas Hermann das Projekt leitet.
"Personen mit kognitiven Behinderungen wie Demenz, Störungen aus dem autistischen Spektrum oder Lernbehinderung haben oft Probleme mit der Ausführung von Alltagstätigkeiten", erklärt Projektmitarbeiter Christian Peters, PhD-Student am CITEC. Solche Menschen seien oftmals auf die Hilfe einer Pflegeperson angewiesen, was zu einer Einschränkung oder gar dem Verlust von Unabhängigkeit führt. "Mit einer Assistenztechnologie wie dem TEBRA-System wollen wir diesen Menschen ein Stück Unabhängigkeit zurückgeben, indem sie Alltagstätigkeiten wieder eigenständig ausführen können. Gleichzeitig können so auch die Pflegekräfte entlastet werden", betont Peters.
Die Funktionsweise des KI-gesteuerten Assistenzsystems ist denkbar einfach: Die Wissenschaftler haben einen Waschtisch mit spezieller Sensorik wie etwa Kameras, Durchflusssensor am Wasserhahn und Sensor in der Zahnbürste ausgestattet. "Über die Sensordaten wird bestimmt, in welchem Teilabschnitt der Aufgabe des Zähneputzens sich der Benutzer befindet. Das System verfolgt den Fortschritt in der Gesamtaufgabe anhand eines Handlungsrahmens. Wenn das Verhalten des Users von diesem Rahmen abweicht, werden audio-visuelle Hinweise - sogenannte 'Prompts' - auf einem am Waschtisch installierten Monitor ausgegeben", schildert Peters das Prozedere.
Dass dieser Ansatz in der Praxis sehr gut funktioniert, habe das TEBRA-System bereits bei einem Testlauf in einer Wohneinrichtung für Personen mit kognitiven Behinderungen in Bielefeld bewiesen. "Die genauen Auswertungen laufen noch. Wir konnten jedoch schon feststellen, dass die Personen aus der Zielgruppe sehr gut auf die System-Prompts ansprechen und somit mehr Teilschritte unabhängig durchführen", fasst Projektleiter Wachsmuth die Ergebnisse des Probelaufs zusammen.
Neben speziellen Wohnheimen für Menschen mit Behinderungen sehen die Bielefelder Forscher auch in Alters- und Pflegeheimen ein besonderes Anwendungspotenzial für ihre Entwicklung gegeben. "In Anbetracht des demografischen Wandels hin zu einer immer älter werdenden Bevölkerung wird die Bedeutung solcher Assistenztechnologien in Zukunft sicher noch steigen", meint PhD-Student Peters, der im Rahmen seiner Dissertation bereits seit rund vier Jahren am Projekt mitarbeitet. "Als nächstes planen wir die Erweiterung des TEBRA-Systems auf andere Aufgaben wie zum Beispiel das Rasieren."
Nach zwei Jahren: USA wieder Spam-Weltmeister
Veröffentlicht am 13.02.2013 18:01:02
Berlin - Nachdem die USA zwei Jahre lang nicht führend unter den Ländern waren, von denen der meiste Spam ausging, belegen die Staaten nun wieder den ersten Platz - und das, obwohl 2011 das weltgrößte Spam-Botnet "Rustock" abgeschaltet wurde. Das hat der "E-Mail Security Report Februar 2013" der E-Mail-Sicherheitsspezialisten Eleven ergeben.
"Zwei Jahre waren die USA nicht mehr bei den zehn größten Versendern aufgetaucht - dass die USA wieder in den Top-10 sind, war daher sehr auffällig", unterstreicht Simone Leyendecker von Eleven. Mit einem Anteil von 10,6 Prozent am gesamten Spam-Aufkommen im deutschsprachigen Raum haben sich die USA im Januar die Spitzenposition ergattert.
Aus Indien (6,9 Prozent) und Rumänien (6,6 Prozent) kommen die zweit- und drittmeisten Spam-Mails in die DACH-Länder. Aus Deutschland ist das Spam-Aufkommen eher gering. Zumindest waren deutsche IP-Adressen mit einem Anteil von 2,3 Prozent auf Platz 13 und nicht mehr in den Top-10 vertreten.
Die Experten von Eleven konnten desweiteren einen weiteren Anstieg von Viren-E-Mails ausmachen.
Jede 60. E-Mail im Januar transportierte Schadsoftware, die dem Rechner und alle angeschlossenen Geräte zerstören könnte.
Die meisten ungewollten E-Mails waren Spam-Mails zu Glückspielen.
Casino-Spam ist nach wie vor das wichtigstes Spam-Thema - auch wenn es nur 22,9 Prozent aller Spam-Inhalte ausmacht.
Pharma-Spam, womit vor allem Viagra-Werbung gemeint ist, legte von seinem Rekordtief von 7,9 Prozent im November leicht auf 12,9 Prozent zu, während gefälschte Luxusartikel bei 4,4 Prozent verharrten. Dating-Spam (dahinter verbergen sich in der Regel pornographische Inhalte)ist mit 18,6 Prozent häufiger als 2012.
Veröffentlicht am 13.02.2013 18:01:02
Berlin - Nachdem die USA zwei Jahre lang nicht führend unter den Ländern waren, von denen der meiste Spam ausging, belegen die Staaten nun wieder den ersten Platz - und das, obwohl 2011 das weltgrößte Spam-Botnet "Rustock" abgeschaltet wurde. Das hat der "E-Mail Security Report Februar 2013" der E-Mail-Sicherheitsspezialisten Eleven ergeben.
"Zwei Jahre waren die USA nicht mehr bei den zehn größten Versendern aufgetaucht - dass die USA wieder in den Top-10 sind, war daher sehr auffällig", unterstreicht Simone Leyendecker von Eleven. Mit einem Anteil von 10,6 Prozent am gesamten Spam-Aufkommen im deutschsprachigen Raum haben sich die USA im Januar die Spitzenposition ergattert.
Aus Indien (6,9 Prozent) und Rumänien (6,6 Prozent) kommen die zweit- und drittmeisten Spam-Mails in die DACH-Länder. Aus Deutschland ist das Spam-Aufkommen eher gering. Zumindest waren deutsche IP-Adressen mit einem Anteil von 2,3 Prozent auf Platz 13 und nicht mehr in den Top-10 vertreten.
Die Experten von Eleven konnten desweiteren einen weiteren Anstieg von Viren-E-Mails ausmachen.
Jede 60. E-Mail im Januar transportierte Schadsoftware, die dem Rechner und alle angeschlossenen Geräte zerstören könnte.
Die meisten ungewollten E-Mails waren Spam-Mails zu Glückspielen.
Casino-Spam ist nach wie vor das wichtigstes Spam-Thema - auch wenn es nur 22,9 Prozent aller Spam-Inhalte ausmacht.
Pharma-Spam, womit vor allem Viagra-Werbung gemeint ist, legte von seinem Rekordtief von 7,9 Prozent im November leicht auf 12,9 Prozent zu, während gefälschte Luxusartikel bei 4,4 Prozent verharrten. Dating-Spam (dahinter verbergen sich in der Regel pornographische Inhalte)ist mit 18,6 Prozent häufiger als 2012.
Nächste Xbox angeblich mit Kinect-Pflicht
Veröffentlicht am 13.02.2013 18:01:02
Minneapolis - Die von Microsoft bislang nicht offiziell angekündigte nächste Xbox-Generation wird ohne Kinect-Sensor gar nicht funktionieren und Spiele werden zwingend eine Festplatten-Installation erfordern. Das besagen Insider-Informationen, die dem Videospiel-Blog Kotaku zugetragen wurden und so die Gerüchteküche rund um Microsofts Next-Gen-Konsole mit Codenamen "Durango" weiter anheizen. Angeblich soll die nächste Xbox, deren Marktstart Branchenkenner noch für dieses Jahr erwarten, demnach auch Multitasking-fähig sein.
Viele weitere Details aus dem aktuellen Informations-Leck decken sich mit früheren Spekulationen und Gerüchten rund um die neue Xbox. Die aktuelle Insider-Quelle spricht unter anderem von Blu-ray- und 3D-Unterstützung sowie einer Achtkern-CPU und scheint damit bisherige Annahmen zu erhärten. Ausgerechnet der Online-Zwang, der schon vorab die Gemüter erhitzt, wird diesmal aber nicht erwähnt - vielleicht ein kleiner Hoffnungsschimmer.
Schon seit längerem vermuten Branchenkenner, dass mit der nächsten Xbox auch die zweite Generation der Kinect erscheint. Es gilt als wahrscheinlich, dass der Bewegungssensor gleich mit der Konsole ausgeliefert wird. Dem Insider zufolge, der Zugang zu einer Entwickler-Version von Durango hat, soll Kinect sogar ein wirklich integraler Bestandteil des Systems sein. Die neue Xbox werde gar nicht funktionieren, wenn der Sensor nicht angeschlossen und korrekt kalibriert ist.
Dafür soll die zweite Kinect-Generation deutlich leistungsfähiger ausfallen. Die Tiefenkamera bekommt demnach eine fast drei Mal so hohe Auflösung wie das Original, die Farbkamera für Spielerfotos sogar eine Full-HD-Auflösung. So sei es dem Sensor nun problemlos möglich, sechs Personen gleichzeitig zu verfolgen, wobei auch das Skelett-Modell etwas ausgereifter ist als in der ersten Generation. Es soll beispielsweise möglich sein, eine geöffnete Hand von einer geballten Faust zu unterscheiden. Die Kotaku zugespielten Informationen legen auch nahe, dass eine automatische Spielererkennung das Gesamterlebnis verbessern wird.
Im Gegensatz zur Xbox 360, deren Slim-Version auch mit nur vier Gigabyte internem Speicher erhältlich ist, soll die nächste Generation der Microsoft-Konsole Festplatte satt bieten. Von 500 GB ist die Rede, die Kunden aber auch dringend brauchen dürften. Denn angeblich wird eine Installation von Spielen zwingend erforderlich sein. Dafür soll es möglich werden, zwischen Games und Apps zu wechseln, ohne ein Spiel erst komplett beenden zu müssen - ein Feature, dass von PC und Smartphone wohlbekannt ist, im Konsolenbereich aber eine echte Neuerung wäre.
Der Insider bestätigt viele bisherige Gerüchte erneut, unter anderem bezüglich der CPU und acht GB RAM. Die erwartete 3D-Unterstützung soll demnach sogar stereoskopische Inhalte in Full-HD umfassen. Den unlängst vom Branchenmagazin Edge in den Raum gestellte Online-Zwang, der bei Gebrauchtspiel-Händlern als potenzieller Wiederverkaufsschutz und auch manchen Entwicklern als mögliche Problemquelle für Unmut sorgt, erwähnt die Quelle dagegen nicht. Vielleicht wird eine Internetverbindung also zumindest nicht in dem Ausmaß erforderlich sein, wie Kritiker bisher befürchten.
Veröffentlicht am 13.02.2013 18:01:02
Minneapolis - Die von Microsoft bislang nicht offiziell angekündigte nächste Xbox-Generation wird ohne Kinect-Sensor gar nicht funktionieren und Spiele werden zwingend eine Festplatten-Installation erfordern. Das besagen Insider-Informationen, die dem Videospiel-Blog Kotaku zugetragen wurden und so die Gerüchteküche rund um Microsofts Next-Gen-Konsole mit Codenamen "Durango" weiter anheizen. Angeblich soll die nächste Xbox, deren Marktstart Branchenkenner noch für dieses Jahr erwarten, demnach auch Multitasking-fähig sein.
Viele weitere Details aus dem aktuellen Informations-Leck decken sich mit früheren Spekulationen und Gerüchten rund um die neue Xbox. Die aktuelle Insider-Quelle spricht unter anderem von Blu-ray- und 3D-Unterstützung sowie einer Achtkern-CPU und scheint damit bisherige Annahmen zu erhärten. Ausgerechnet der Online-Zwang, der schon vorab die Gemüter erhitzt, wird diesmal aber nicht erwähnt - vielleicht ein kleiner Hoffnungsschimmer.
Schon seit längerem vermuten Branchenkenner, dass mit der nächsten Xbox auch die zweite Generation der Kinect erscheint. Es gilt als wahrscheinlich, dass der Bewegungssensor gleich mit der Konsole ausgeliefert wird. Dem Insider zufolge, der Zugang zu einer Entwickler-Version von Durango hat, soll Kinect sogar ein wirklich integraler Bestandteil des Systems sein. Die neue Xbox werde gar nicht funktionieren, wenn der Sensor nicht angeschlossen und korrekt kalibriert ist.
Dafür soll die zweite Kinect-Generation deutlich leistungsfähiger ausfallen. Die Tiefenkamera bekommt demnach eine fast drei Mal so hohe Auflösung wie das Original, die Farbkamera für Spielerfotos sogar eine Full-HD-Auflösung. So sei es dem Sensor nun problemlos möglich, sechs Personen gleichzeitig zu verfolgen, wobei auch das Skelett-Modell etwas ausgereifter ist als in der ersten Generation. Es soll beispielsweise möglich sein, eine geöffnete Hand von einer geballten Faust zu unterscheiden. Die Kotaku zugespielten Informationen legen auch nahe, dass eine automatische Spielererkennung das Gesamterlebnis verbessern wird.
Im Gegensatz zur Xbox 360, deren Slim-Version auch mit nur vier Gigabyte internem Speicher erhältlich ist, soll die nächste Generation der Microsoft-Konsole Festplatte satt bieten. Von 500 GB ist die Rede, die Kunden aber auch dringend brauchen dürften. Denn angeblich wird eine Installation von Spielen zwingend erforderlich sein. Dafür soll es möglich werden, zwischen Games und Apps zu wechseln, ohne ein Spiel erst komplett beenden zu müssen - ein Feature, dass von PC und Smartphone wohlbekannt ist, im Konsolenbereich aber eine echte Neuerung wäre.
Der Insider bestätigt viele bisherige Gerüchte erneut, unter anderem bezüglich der CPU und acht GB RAM. Die erwartete 3D-Unterstützung soll demnach sogar stereoskopische Inhalte in Full-HD umfassen. Den unlängst vom Branchenmagazin Edge in den Raum gestellte Online-Zwang, der bei Gebrauchtspiel-Händlern als potenzieller Wiederverkaufsschutz und auch manchen Entwicklern als mögliche Problemquelle für Unmut sorgt, erwähnt die Quelle dagegen nicht. Vielleicht wird eine Internetverbindung also zumindest nicht in dem Ausmaß erforderlich sein, wie Kritiker bisher befürchten.
Cloud: Marktlücke als Chance für Telcos
Veröffentlicht am 13.02.2013 18:00:44
Mit ihren engen und langjährigen Kundenbeziehungen sind die großen Telekommunikationsunternehmen in verschiedenen Ländern exzellent positioniert. Sie können aus diesen Startvorteil, ihre Infrastruktur vor Ort und ihre Fähigkeit zu herausragendem Kundenmanagement nutzen, um in diese Lücke zu stoßen.
Dr. Karim Taga, Managing Partner Austria und Global Practice Leader TIME bei Arthur D. Little: "Die Telcos müssen jetzt ihren Fokus auf Niedrigpreisstrategien zur Realisierung klassischer IT-Lösungen in der Cloud hinter sich lassen und sich statt dessen darauf konzentrieren, neue ICT-Lösungen und Anwendungen zu ermöglichen." Er führt ergänzend dazu aus: "Cloud ist ein Muss für Telekommunikationsanbieter - sie können damit ihr konventionelles Telekommunikations-Geschäft mit den Möglichkeiten von Cloud verbinden, um so ihre Angebotsbreite komplett neu aufzustellen."
Cloud ist eine der größten und am stärksten wachsenden Chancen für Telekommunikationsanbieter, ihr eigenes Netzwerk ins Zentrum des Geschehens zu stellen und es mit Rechenleistungen und Networking sinnvoll zu verbinden. Wenn es den Telekommunikationsanbietern gelingt, Technologie-als-Service am Markt zu lancieren - wie es mit Cloud Computing möglich ist - haben sie sehr gute Chancen mit dieser Dienstleistung ihre seit Jahren fallenden Umsätze abzufedern. Allerdings stellen viele der gegenwärtigen Ansätze nicht mehr als einen ersten Schritt dar und dürften langfristig nicht ausreichend sein, um ausreichende Angebote in Sachen Cloud auf die Beine zu stellen. Telcos sollten deshalb schnell ihr derzeitiges Engagement ausweiten, um die letzte Meile, der finale Integrator und der wichtigste Anbieter möglichst vieler vor Ort konsumierter Digital Services zu werden.
Veröffentlicht am 13.02.2013 18:00:44
Mit ihren engen und langjährigen Kundenbeziehungen sind die großen Telekommunikationsunternehmen in verschiedenen Ländern exzellent positioniert. Sie können aus diesen Startvorteil, ihre Infrastruktur vor Ort und ihre Fähigkeit zu herausragendem Kundenmanagement nutzen, um in diese Lücke zu stoßen.
Dr. Karim Taga, Managing Partner Austria und Global Practice Leader TIME bei Arthur D. Little: "Die Telcos müssen jetzt ihren Fokus auf Niedrigpreisstrategien zur Realisierung klassischer IT-Lösungen in der Cloud hinter sich lassen und sich statt dessen darauf konzentrieren, neue ICT-Lösungen und Anwendungen zu ermöglichen." Er führt ergänzend dazu aus: "Cloud ist ein Muss für Telekommunikationsanbieter - sie können damit ihr konventionelles Telekommunikations-Geschäft mit den Möglichkeiten von Cloud verbinden, um so ihre Angebotsbreite komplett neu aufzustellen."
Cloud ist eine der größten und am stärksten wachsenden Chancen für Telekommunikationsanbieter, ihr eigenes Netzwerk ins Zentrum des Geschehens zu stellen und es mit Rechenleistungen und Networking sinnvoll zu verbinden. Wenn es den Telekommunikationsanbietern gelingt, Technologie-als-Service am Markt zu lancieren - wie es mit Cloud Computing möglich ist - haben sie sehr gute Chancen mit dieser Dienstleistung ihre seit Jahren fallenden Umsätze abzufedern. Allerdings stellen viele der gegenwärtigen Ansätze nicht mehr als einen ersten Schritt dar und dürften langfristig nicht ausreichend sein, um ausreichende Angebote in Sachen Cloud auf die Beine zu stellen. Telcos sollten deshalb schnell ihr derzeitiges Engagement ausweiten, um die letzte Meile, der finale Integrator und der wichtigste Anbieter möglichst vieler vor Ort konsumierter Digital Services zu werden.
Alte Handys: Algorithmus verhindert Datenklau
Veröffentlicht am 13.02.2013 18:00:44
Skelmersdale - Wer sein altes Handy in einem Gebrauchtwarengeschäft abgibt ohne dieses vorher von sensiblen persönlichen Daten zu säubern, setzt sich einem hohen Risiko von Identitätsdiebstahl aus. Vor dem Hintergrund dieser Sicherheitsproblematik hat der britische Mobile-Security-Spezialist BlackBelt Smartphone Defence
http://www.blackbeltdefence.com eine neuartige Softwarelösung namens "DataWipe" entwickelt. Diese soll mithilfe eines speziellen Algorithmus dafür sorgen, dass auch die letzten noch so gut versteckten Datenreste verlässlich vom in Smartphones verbauten Flash-Memory-Speicher gelöscht werden können.
"Die Daten, die auf einem Handy gespeichert sind, sind aus User-Sicht besonders sensibel", stellt Rafaela Möhl, Pressesprecherin beim Online-Tarifberater teltarif klar. Als Beispiel verweist sie etwa auf Adresskontakte, Geburtstage, Bankinformationen, Fotos oder SMS- bzw. E-Mail-Nachrichten. "Wenn man sein gebrauchtes Handy verkaufen oder weitergeben möchte, sollte man daher unbedingt schon im Vorfeld darauf achten, alle privaten Inhalte zu entfernen", rät die Expertin. "Die User müssen auf ihrem Handy auf dieselben Sicherheitsgefahren achten wie auf ihrem stationären Rechner. Im Mobilfunkbereich ist das entsprechende Gefahrenbewusstsein derzeit allerdings noch nicht so stark ausgeprägt", so Möhl.
"Die Entferntechnologien, die von Recycling-Unternehmen und Handyshops verwendet werden, um alte Daten loszuwerden, wurden für herkömmliche Festplatten entwickelt und funktionieren nicht mit dem Solid-State Flash Memory von Smartphones", zitiert der NewScientist Ken Garner, Business Development Manager bei BlackBelt. Das Problem mit dieser Speichervariante liege im sogenannten "wear leveller", einem On-Chip-Sicherheitsalgorithmus, der darauf abzielt, die Lebenszeit des elektronischen Bauteils zu verlängern. "Der wear-levelling-Algorithmus arbeitet letztendlich genau in die entgegengesetzte Richtung und verhindert Versuche, Daten endgültig zu löschen", erläutert Garner.
Um dieses Problem zu lösen, haben die BlackBelt-Spezialisten kurzerhand einen eigenen Algorithmus geschrieben, der nicht gegen den wear leveller arbeitet, sondern die integrierte Chip-Routine nutzt, um Daten unwiderruflich ins digitale Nirvana befördern zu können. "Jetzt haben wir gewissermaßen eine Art Schredder für personenbezogene Daten zur Verfügung", betont Garner.
Dass BlackBelt mit der DataWipe-Software tatsächlich ein ernstzunehmendes Sicherheitsproblem bei Handydaten lösen könnte, hat auch die Regierung Großbritanniens bereits erkannt. Dort gilt der entwickelte Algorithmus mittlerweile als heißer Anwärter für einen Technologie-Award. Eine erste öffentliche Vorstellung soll im Rahmen des Mobile World Congresses erfolgen, der von 25. bis 28. Februar in Barcelona über die Bühne geht.
Veröffentlicht am 13.02.2013 18:00:44
Skelmersdale - Wer sein altes Handy in einem Gebrauchtwarengeschäft abgibt ohne dieses vorher von sensiblen persönlichen Daten zu säubern, setzt sich einem hohen Risiko von Identitätsdiebstahl aus. Vor dem Hintergrund dieser Sicherheitsproblematik hat der britische Mobile-Security-Spezialist BlackBelt Smartphone Defence
http://www.blackbeltdefence.com eine neuartige Softwarelösung namens "DataWipe" entwickelt. Diese soll mithilfe eines speziellen Algorithmus dafür sorgen, dass auch die letzten noch so gut versteckten Datenreste verlässlich vom in Smartphones verbauten Flash-Memory-Speicher gelöscht werden können.
"Die Daten, die auf einem Handy gespeichert sind, sind aus User-Sicht besonders sensibel", stellt Rafaela Möhl, Pressesprecherin beim Online-Tarifberater teltarif klar. Als Beispiel verweist sie etwa auf Adresskontakte, Geburtstage, Bankinformationen, Fotos oder SMS- bzw. E-Mail-Nachrichten. "Wenn man sein gebrauchtes Handy verkaufen oder weitergeben möchte, sollte man daher unbedingt schon im Vorfeld darauf achten, alle privaten Inhalte zu entfernen", rät die Expertin. "Die User müssen auf ihrem Handy auf dieselben Sicherheitsgefahren achten wie auf ihrem stationären Rechner. Im Mobilfunkbereich ist das entsprechende Gefahrenbewusstsein derzeit allerdings noch nicht so stark ausgeprägt", so Möhl.
"Die Entferntechnologien, die von Recycling-Unternehmen und Handyshops verwendet werden, um alte Daten loszuwerden, wurden für herkömmliche Festplatten entwickelt und funktionieren nicht mit dem Solid-State Flash Memory von Smartphones", zitiert der NewScientist Ken Garner, Business Development Manager bei BlackBelt. Das Problem mit dieser Speichervariante liege im sogenannten "wear leveller", einem On-Chip-Sicherheitsalgorithmus, der darauf abzielt, die Lebenszeit des elektronischen Bauteils zu verlängern. "Der wear-levelling-Algorithmus arbeitet letztendlich genau in die entgegengesetzte Richtung und verhindert Versuche, Daten endgültig zu löschen", erläutert Garner.
Um dieses Problem zu lösen, haben die BlackBelt-Spezialisten kurzerhand einen eigenen Algorithmus geschrieben, der nicht gegen den wear leveller arbeitet, sondern die integrierte Chip-Routine nutzt, um Daten unwiderruflich ins digitale Nirvana befördern zu können. "Jetzt haben wir gewissermaßen eine Art Schredder für personenbezogene Daten zur Verfügung", betont Garner.
Dass BlackBelt mit der DataWipe-Software tatsächlich ein ernstzunehmendes Sicherheitsproblem bei Handydaten lösen könnte, hat auch die Regierung Großbritanniens bereits erkannt. Dort gilt der entwickelte Algorithmus mittlerweile als heißer Anwärter für einen Technologie-Award. Eine erste öffentliche Vorstellung soll im Rahmen des Mobile World Congresses erfolgen, der von 25. bis 28. Februar in Barcelona über die Bühne geht.
AVG: Schon Kinder schreiben Malware
Veröffentlicht am 12.02.2013 11:55:55
Amsterdam/San Francisco - Schon Kinder versuchen sich mittlerweile als Hacker, so der Antiviren-Spezialist AVG
in seinem Q4 2012 Community Powered Threat Report. Unternehmens-CTO Yuval Ben-Itzhak geht es jungen Malware-Schreibern meist darum, Account-Daten von Online-Games zu stehlen. Antrieb der Nachwuchs-Hacker sei demnach wohl der Kick, schlauer zu sein als Gleichaltrige. Doch das Problem ist ernst - einerseits aufgrund des Werts von Spiele-Accounts und auch, weil ein Teil der Kinder sich später ernsthafterem Cybercrime zuwenden könnte.
Ein aktuelles Beispiel ist der Fall eines elfjährigen Kanadiers, dessen Schädling es auf "RuneScape"-Spieler abgesehen hat und das praktisch als Prototyp eines Kinder-Trojaners herhält. "Wir können nicht sagen, wie viele Kinder rund um die Welt Malware schreiben, aber wir glauben es gibt einige Fälle wie diesen", heißt es auf Nachfrage.
Von Kindern gemachte Computer-Schädlinge haben laut AVG häufig Ähnlichkeiten. So sind die Schreiber oft auf Gaming-Accounts aus und tarnen ihre Schädlinge daher wie der Kanadier als Tools, die angeblich kostenlose Ingame-Währung für beliebte Spiele liefern und so Leichtgläubige in die Falle locken. "Meist geht es Malware-schreibenden Kindern darum, vor Gleichaltrigen anzugeben, indem sie 'Hacking'-Fähigkeiten zeigen", meint zudem Ben-Itzhak. Dass schon Elfjährige das machen, sei vielleicht überraschend, aber eigentlich nicht verwunderlich - denn Kinder lernen heute schon sehr früh den Umgang mit Computern.
Wirklich ausgereifte Fähigkeiten haben junge Malware-Autoren aber noch nicht. "Der Code hat meist die Form eines simplen Trojaners, erstellt mit .NET Framework, das für Anfänger leicht zu erlernen ist", so der Experte. Verteilt werden die Schädlinge einfach per E-Mail oder über soziale Netzwerke. Zudem kommt es laut AVG oft vor, dass Passwort-Trojaner junger Schreiber wie des elfjährigen Kanadiers geklaute Daten einfach an deren persönliche E-Mail-Adresse verschicken. Diese ist daher einfach im Quellcode des Schädlings zu finden - ein Fehler, den ein Profi nie machen würde.
Die eigene E-Mail-Adresse im Quellcode macht es nämlich leicht, den Autor zu identifizieren und Daten zusammenzutragen, insbesondere, wenn sie auch noch mit Accounts wie beispielsweise auf Facebook verknüpft ist. So könnten Opfer E-Mail oder Facebook-Profil des Autors blockieren, das Wissen aber auch für gröbere Racheakte missbrauchen. Grund dazu hätten sie durchaus, immerhin kann ein geklautes Spiele-Account hunderte Euro allein in Form virtueller Güter wert sein oder teure Ingame-Käufe durch hinterlegte Kreditkarten-Daten ermöglichen.
Obwohl Ben-Itzhak davon ausgeht, dass es wirklich jungen Malware-Schreibern mehr um den Kick als um finanzielle Beute geht, besteht zudem das Risiko, dass sie längerfristig weiter abgleiten. "Es ist logisch anzunehmen, dass zumindest ein Teil der Verantwortlichen versucht sein wird, mit viel ernsterem Cybercrime zu experimentieren", meint der Experte. Daher mahnt er nicht zuletzt, dass Eltern sich damit befassen sollten, was genau ihre Kinder am Computer machen - auch, wenn sich die Sprösslinge besser mit der modernen Technik auskennen als die Eltern.
Veröffentlicht am 12.02.2013 11:55:55
Amsterdam/San Francisco - Schon Kinder versuchen sich mittlerweile als Hacker, so der Antiviren-Spezialist AVG
in seinem Q4 2012 Community Powered Threat Report. Unternehmens-CTO Yuval Ben-Itzhak geht es jungen Malware-Schreibern meist darum, Account-Daten von Online-Games zu stehlen. Antrieb der Nachwuchs-Hacker sei demnach wohl der Kick, schlauer zu sein als Gleichaltrige. Doch das Problem ist ernst - einerseits aufgrund des Werts von Spiele-Accounts und auch, weil ein Teil der Kinder sich später ernsthafterem Cybercrime zuwenden könnte.
Ein aktuelles Beispiel ist der Fall eines elfjährigen Kanadiers, dessen Schädling es auf "RuneScape"-Spieler abgesehen hat und das praktisch als Prototyp eines Kinder-Trojaners herhält. "Wir können nicht sagen, wie viele Kinder rund um die Welt Malware schreiben, aber wir glauben es gibt einige Fälle wie diesen", heißt es auf Nachfrage.
Von Kindern gemachte Computer-Schädlinge haben laut AVG häufig Ähnlichkeiten. So sind die Schreiber oft auf Gaming-Accounts aus und tarnen ihre Schädlinge daher wie der Kanadier als Tools, die angeblich kostenlose Ingame-Währung für beliebte Spiele liefern und so Leichtgläubige in die Falle locken. "Meist geht es Malware-schreibenden Kindern darum, vor Gleichaltrigen anzugeben, indem sie 'Hacking'-Fähigkeiten zeigen", meint zudem Ben-Itzhak. Dass schon Elfjährige das machen, sei vielleicht überraschend, aber eigentlich nicht verwunderlich - denn Kinder lernen heute schon sehr früh den Umgang mit Computern.
Wirklich ausgereifte Fähigkeiten haben junge Malware-Autoren aber noch nicht. "Der Code hat meist die Form eines simplen Trojaners, erstellt mit .NET Framework, das für Anfänger leicht zu erlernen ist", so der Experte. Verteilt werden die Schädlinge einfach per E-Mail oder über soziale Netzwerke. Zudem kommt es laut AVG oft vor, dass Passwort-Trojaner junger Schreiber wie des elfjährigen Kanadiers geklaute Daten einfach an deren persönliche E-Mail-Adresse verschicken. Diese ist daher einfach im Quellcode des Schädlings zu finden - ein Fehler, den ein Profi nie machen würde.
Die eigene E-Mail-Adresse im Quellcode macht es nämlich leicht, den Autor zu identifizieren und Daten zusammenzutragen, insbesondere, wenn sie auch noch mit Accounts wie beispielsweise auf Facebook verknüpft ist. So könnten Opfer E-Mail oder Facebook-Profil des Autors blockieren, das Wissen aber auch für gröbere Racheakte missbrauchen. Grund dazu hätten sie durchaus, immerhin kann ein geklautes Spiele-Account hunderte Euro allein in Form virtueller Güter wert sein oder teure Ingame-Käufe durch hinterlegte Kreditkarten-Daten ermöglichen.
Obwohl Ben-Itzhak davon ausgeht, dass es wirklich jungen Malware-Schreibern mehr um den Kick als um finanzielle Beute geht, besteht zudem das Risiko, dass sie längerfristig weiter abgleiten. "Es ist logisch anzunehmen, dass zumindest ein Teil der Verantwortlichen versucht sein wird, mit viel ernsterem Cybercrime zu experimentieren", meint der Experte. Daher mahnt er nicht zuletzt, dass Eltern sich damit befassen sollten, was genau ihre Kinder am Computer machen - auch, wenn sich die Sprösslinge besser mit der modernen Technik auskennen als die Eltern.
Gestenerkennung macht Finger zur Fernbedienung
Veröffentlicht am 11.02.2013 22:40:22
Herzelia - Eine verlorene Fernbedienung ist in Zukunft kein großes Problem mehr, geht es nach dem israelischen Unternehmen EyeSight Technologies. Denn es hat eine Gestenerkennungs-Technologie entwickelt, dank der User den Fernseher einfach per Fingerzeig steuern können. Dabei verspricht die Lösung eine unvergleichliche Genauigkeit bei der Fingererkennung aus größerer Entfernung - obwohl eine 2D-Kamera reicht und kein 3D-Sensor wie beispielsweise bei Microsofts Kinect erforderlich ist.
"Lösungen mit Ganzkörper-Tiefenerkennung sind ideal für Gaming-Anwendungen, bieten aber mehr als zum einfachen Steuern von Fernseher oder PC erforderlich ist. Man braucht nicht den ganzen Körper, um die Lautstärke zu regeln", erklärt Liat Rostock, Marketing Director bei eyeSight. Statt auf große Bewegungen setzt das Unternehmen insbesondere auf einfache, intuitive Hand- und Fingergesten, um TV-Geräte, Notebooks oder auch Smartphones zu bedienen.
Zwar unterstützt die eyeSight-Technologie auch Gesichtserkennung, doch wirklich grundlegend sind Handgesten. Hier setzt das Unternehmen auf einen vorgegebenen Befehlssatz möglichst intuitiver Gesten, etwa seitliche Bewegungen für den Kanalwechsel beim Fernseher oder ein Winken, um zum Hauptmenü zurückzukehren. "In Verbindung mit unserem Hand- und jetzt auch Fingerspitzen-Tracking ergibt das eine komplette berührungslose Interaktionsmethode, die intuitiv ist und Spaß macht", meint Rostock.
Gegenüber Lösungen mit komplexeren Sensoren wie Kinect verspricht der einfache Zugang einen Preisvorteil, der aber nicht auf Kosten der Genauigkeit geht. "Unseres Wissens nach gibt es keine Tiefenlösung, die eine Fingerspitzen-Erkennung mit Millimeter-Auflösung fünf Meter vom Gerät bieten kann", sagt der eyeSight-Vertreter. Genau diese beeindruckende Präzision verspricht die israelische Technologie und soll damit auch einen Fingerzeig vom Sofa aus korrekt als Steuergeste für den Fernseher interpretieren können.
Das Fingerspitzen-Tracking ist eine Verbesserung einer Technologie, für deren Nutzung eyeSight bereits ein breites Spektrum an Partnern gefunden hat. Die Produktpalette reicht vom Phablet "VEGA" des koreanischen Herstellers Pantech über "Yoga"-Ultrabooks aus dem Hause Lenovo bis hin zu Smart TVs unter anderem des chinesischen Elektronikriesen Hisense. Auf der CES 2013 wurde zudem bekannt gegeben, dass der Chiphersteller AMD die eyeSense-Technologie in seine kommenden Prozessor-Plattformen "Richland" und "Temash" integrieren wird.
Veröffentlicht am 11.02.2013 22:40:22
Herzelia - Eine verlorene Fernbedienung ist in Zukunft kein großes Problem mehr, geht es nach dem israelischen Unternehmen EyeSight Technologies. Denn es hat eine Gestenerkennungs-Technologie entwickelt, dank der User den Fernseher einfach per Fingerzeig steuern können. Dabei verspricht die Lösung eine unvergleichliche Genauigkeit bei der Fingererkennung aus größerer Entfernung - obwohl eine 2D-Kamera reicht und kein 3D-Sensor wie beispielsweise bei Microsofts Kinect erforderlich ist.
"Lösungen mit Ganzkörper-Tiefenerkennung sind ideal für Gaming-Anwendungen, bieten aber mehr als zum einfachen Steuern von Fernseher oder PC erforderlich ist. Man braucht nicht den ganzen Körper, um die Lautstärke zu regeln", erklärt Liat Rostock, Marketing Director bei eyeSight. Statt auf große Bewegungen setzt das Unternehmen insbesondere auf einfache, intuitive Hand- und Fingergesten, um TV-Geräte, Notebooks oder auch Smartphones zu bedienen.
Zwar unterstützt die eyeSight-Technologie auch Gesichtserkennung, doch wirklich grundlegend sind Handgesten. Hier setzt das Unternehmen auf einen vorgegebenen Befehlssatz möglichst intuitiver Gesten, etwa seitliche Bewegungen für den Kanalwechsel beim Fernseher oder ein Winken, um zum Hauptmenü zurückzukehren. "In Verbindung mit unserem Hand- und jetzt auch Fingerspitzen-Tracking ergibt das eine komplette berührungslose Interaktionsmethode, die intuitiv ist und Spaß macht", meint Rostock.
Gegenüber Lösungen mit komplexeren Sensoren wie Kinect verspricht der einfache Zugang einen Preisvorteil, der aber nicht auf Kosten der Genauigkeit geht. "Unseres Wissens nach gibt es keine Tiefenlösung, die eine Fingerspitzen-Erkennung mit Millimeter-Auflösung fünf Meter vom Gerät bieten kann", sagt der eyeSight-Vertreter. Genau diese beeindruckende Präzision verspricht die israelische Technologie und soll damit auch einen Fingerzeig vom Sofa aus korrekt als Steuergeste für den Fernseher interpretieren können.
Das Fingerspitzen-Tracking ist eine Verbesserung einer Technologie, für deren Nutzung eyeSight bereits ein breites Spektrum an Partnern gefunden hat. Die Produktpalette reicht vom Phablet "VEGA" des koreanischen Herstellers Pantech über "Yoga"-Ultrabooks aus dem Hause Lenovo bis hin zu Smart TVs unter anderem des chinesischen Elektronikriesen Hisense. Auf der CES 2013 wurde zudem bekannt gegeben, dass der Chiphersteller AMD die eyeSense-Technologie in seine kommenden Prozessor-Plattformen "Richland" und "Temash" integrieren wird.
Schnellfeuer: Große Magazine aus dem 3D-Drucker
Veröffentlicht am 11.02.2013 22:40:22
Washington - Das Unternehmen Defense Distributed, bekannt geworden durch Waffen aus dem 3D-Drucker, hat ein überarbeitetes Magazin für das AR-15, der zivilen Version des Sturmgewehrs M16, vorgestellt, das laut Machern problemlos hunderte Schuss lang hält. Zudem fasst das "Cuomo Mag" gleich 30 Patronen, womit es laut Wired geeignet ist, gesetzliche Beschränkungen auszuhebeln - denn im Staat New York ist seit kurzem der Verkauf von Magazinen, die mehr als sieben Schuss fassen, verboten. Der 3D-Druck dagegen unterliegt solchen Beschränkungen bislang nicht.
Der Name des 3D-Druck-Magazins ist ein Seitenhieb auf New Yorks Governeur Andrew Cuomo, denn dieser hat erst Mitte Januar ein Gesetz unterzeichnet, nach dem in New York nur noch Magazine bis sieben Schuss erlaubt sind. Doch wer nicht kaufen kann, kann drucken, so die Logik von Defense Distributed - obwohl auch der Besitz eines 30-Schuss-Magazins aus dem 3D-Drucker gesetzwidrig erscheint. Der Fall zeigt somit das Problem auf, dass 3D-Druck von Waffenteilen noch schwieriger zu kontrollieren ist als der Verkauf über den klassischen Handel - und die Qualität der Komponenten wird immer besser.
Das Cuomo Mag ist ein komplettes Redesign eines älteren Druck-Magazins, das noch Probleme bereitet hat. Die sind jetzt ausgeräumt, wenn man Defense-Distributed-Gründer Cody Wilson glauben darf. Bei Tests in Texas, die in einem Video ausschnittsweise festgehalten wurden, habe man kürzlich ohne Schwierigkeiten 342 Schuss aus einem gedruckten Magazin abgegeben, davon 227 bei vollautomatischem Feuer.
Damit scheint Defense Distributed, das Ende 2012 mit seinen Plänen für gedruckte Waffen für Aufsehen gesorgt hat ein kleiner Coup gelungen. Bald soll auch ein 40-Schuss-Magazin für die AK-47 - besser bekannt als "Kalashnikov" - folgen. Doch gerät der 3D-Druck von Waffenkomponenten bereits selbst in das Fadenkreuz von Gesetzgebern. So hat sich ein New Yorker Abgeordneter im Januar für ein generelles Verbot gedruckter Magazine ausgesprochen, da es Waffenbeschränkungen sinnlos mache, wenn Kriminelle einfach zum 3D-Drucker gehen können.
Veröffentlicht am 11.02.2013 22:40:22
Washington - Das Unternehmen Defense Distributed, bekannt geworden durch Waffen aus dem 3D-Drucker, hat ein überarbeitetes Magazin für das AR-15, der zivilen Version des Sturmgewehrs M16, vorgestellt, das laut Machern problemlos hunderte Schuss lang hält. Zudem fasst das "Cuomo Mag" gleich 30 Patronen, womit es laut Wired geeignet ist, gesetzliche Beschränkungen auszuhebeln - denn im Staat New York ist seit kurzem der Verkauf von Magazinen, die mehr als sieben Schuss fassen, verboten. Der 3D-Druck dagegen unterliegt solchen Beschränkungen bislang nicht.
Der Name des 3D-Druck-Magazins ist ein Seitenhieb auf New Yorks Governeur Andrew Cuomo, denn dieser hat erst Mitte Januar ein Gesetz unterzeichnet, nach dem in New York nur noch Magazine bis sieben Schuss erlaubt sind. Doch wer nicht kaufen kann, kann drucken, so die Logik von Defense Distributed - obwohl auch der Besitz eines 30-Schuss-Magazins aus dem 3D-Drucker gesetzwidrig erscheint. Der Fall zeigt somit das Problem auf, dass 3D-Druck von Waffenteilen noch schwieriger zu kontrollieren ist als der Verkauf über den klassischen Handel - und die Qualität der Komponenten wird immer besser.
Das Cuomo Mag ist ein komplettes Redesign eines älteren Druck-Magazins, das noch Probleme bereitet hat. Die sind jetzt ausgeräumt, wenn man Defense-Distributed-Gründer Cody Wilson glauben darf. Bei Tests in Texas, die in einem Video ausschnittsweise festgehalten wurden, habe man kürzlich ohne Schwierigkeiten 342 Schuss aus einem gedruckten Magazin abgegeben, davon 227 bei vollautomatischem Feuer.
Damit scheint Defense Distributed, das Ende 2012 mit seinen Plänen für gedruckte Waffen für Aufsehen gesorgt hat ein kleiner Coup gelungen. Bald soll auch ein 40-Schuss-Magazin für die AK-47 - besser bekannt als "Kalashnikov" - folgen. Doch gerät der 3D-Druck von Waffenkomponenten bereits selbst in das Fadenkreuz von Gesetzgebern. So hat sich ein New Yorker Abgeordneter im Januar für ein generelles Verbot gedruckter Magazine ausgesprochen, da es Waffenbeschränkungen sinnlos mache, wenn Kriminelle einfach zum 3D-Drucker gehen können.
TV-Übertragung via LTE: Kein Massenmarkt in Sicht
Veröffentlicht am 11.02.2013 22:40:22
Xiamen/München - Trotz der Vorteile von LTE sowie dem Nachfolgestandard LTE Advance mit Datenraten von bis zu 1.000 Mbit/s bleibt die Einführung der Technologie zur Fernsehübertragung ungewiss. Vertreter des Rundfunks befürchten, dass sich die Nutzer die Bandbreite teilen müssen. Dass es jedoch prinzipiell funktioniert, hat Nokia Siemens Networks (NSN) Anfang Januar bewiesen. Über das LTE-Netz in der chinesischen Stadt Xiamen wurden Live-TV-Bilder eines Marathonlaufes übertragen. Bedenken zur breiten Einführung bleiben aber bestehen.
Laut NSN blieb die Netzwerk-Performance während der zweieinhalbstündigen Übertragung stabil. Es stellten sich weder Paketverluste noch Verzögerungen bei der Datenübertragung ein. Die verwendeten Übertragungsparameter sollen sogar die Verbreitung von TV-Bildern in HD-Qualität ermöglichen. Auch seien solche Übertragungen in anderen LTE-Netzen möglich. Im Gegensatz zum chinesischen "Time Division Duplex"-System kommt in Deutschland mit dem "Frequency Division Duplex" jedoch ein anderes System zum Einsatz, bestätigt NSN.
"Beide Systeme bieten ausreichende Bandbreiten im Uplink, um Fernsehen zu übertragen. Wir haben dies bereits in verschiedenen technologischen Demonstrationen unter Beweis gestellt. Im Uplink sind Bandbreiten bis zu zehn Mbit/s denkbar", unterstreicht NSN-Sprecherin Irene Nie auf Nachfrage. Doch auch sie muss gestehen, dass Uplink-Datenraten solcher Art in den meisten Fällen zulasten der gesamten Bandbreite in einer Mobilfunkzelle gehen. "Es ist eine wirtschaftliche Entscheidung des Netzbetreibers", verdeutlicht Nie.
In Deutschland hat man sich gegen die LTE-TV-Übertragung entschieden. Das geht aus den Volumenbegrenzungen der Mobilfunkverträge mit LTE-Nutzung hervor. "Angenommen, die Surfgeschwindigkeit wird bei einem Volumen von zehn Gigabyte gedrosselt, so könnte der Nutzer pro Monat nur rund acht Stunden mobiles Fernsehen in Standardqualität empfangen", erläutert Ulrich Reimers von der Technischen Universität Braunschweig und Mitbegründer des DVB-Standards, auf einem Symposium der Landesmedienanstalten zum Thema "Mobiles Fernsehen".
Das nüchterne Fazit des Branchenkenners: Auch wenn Fernsehen über LTE technisch möglich ist, wird man in Zukunft nicht ohne Rundfunkübertragungssysteme wie DVB auskommen. Reimers sieht die Zukunft in konvergenten Systemen aus den beiden Lagern Mobilfunk und Rundfunk.
Veröffentlicht am 11.02.2013 22:40:22
Xiamen/München - Trotz der Vorteile von LTE sowie dem Nachfolgestandard LTE Advance mit Datenraten von bis zu 1.000 Mbit/s bleibt die Einführung der Technologie zur Fernsehübertragung ungewiss. Vertreter des Rundfunks befürchten, dass sich die Nutzer die Bandbreite teilen müssen. Dass es jedoch prinzipiell funktioniert, hat Nokia Siemens Networks (NSN) Anfang Januar bewiesen. Über das LTE-Netz in der chinesischen Stadt Xiamen wurden Live-TV-Bilder eines Marathonlaufes übertragen. Bedenken zur breiten Einführung bleiben aber bestehen.
Laut NSN blieb die Netzwerk-Performance während der zweieinhalbstündigen Übertragung stabil. Es stellten sich weder Paketverluste noch Verzögerungen bei der Datenübertragung ein. Die verwendeten Übertragungsparameter sollen sogar die Verbreitung von TV-Bildern in HD-Qualität ermöglichen. Auch seien solche Übertragungen in anderen LTE-Netzen möglich. Im Gegensatz zum chinesischen "Time Division Duplex"-System kommt in Deutschland mit dem "Frequency Division Duplex" jedoch ein anderes System zum Einsatz, bestätigt NSN.
"Beide Systeme bieten ausreichende Bandbreiten im Uplink, um Fernsehen zu übertragen. Wir haben dies bereits in verschiedenen technologischen Demonstrationen unter Beweis gestellt. Im Uplink sind Bandbreiten bis zu zehn Mbit/s denkbar", unterstreicht NSN-Sprecherin Irene Nie auf Nachfrage. Doch auch sie muss gestehen, dass Uplink-Datenraten solcher Art in den meisten Fällen zulasten der gesamten Bandbreite in einer Mobilfunkzelle gehen. "Es ist eine wirtschaftliche Entscheidung des Netzbetreibers", verdeutlicht Nie.
In Deutschland hat man sich gegen die LTE-TV-Übertragung entschieden. Das geht aus den Volumenbegrenzungen der Mobilfunkverträge mit LTE-Nutzung hervor. "Angenommen, die Surfgeschwindigkeit wird bei einem Volumen von zehn Gigabyte gedrosselt, so könnte der Nutzer pro Monat nur rund acht Stunden mobiles Fernsehen in Standardqualität empfangen", erläutert Ulrich Reimers von der Technischen Universität Braunschweig und Mitbegründer des DVB-Standards, auf einem Symposium der Landesmedienanstalten zum Thema "Mobiles Fernsehen".
Das nüchterne Fazit des Branchenkenners: Auch wenn Fernsehen über LTE technisch möglich ist, wird man in Zukunft nicht ohne Rundfunkübertragungssysteme wie DVB auskommen. Reimers sieht die Zukunft in konvergenten Systemen aus den beiden Lagern Mobilfunk und Rundfunk.
DropTag: Nie mehr schadhafte Pakete übernehmen
Veröffentlicht am 11.02.2013 22:40:22
Cambridge - Geht es nach dem Technologieunternehmen Cambridge Consultants, werden Paketempfänger in Zukunft auch ohne Auspacken bei der Übernahme gut abschätzen können, ob denn der Inhalt wirklich noch heil sein mag. Möglich macht dies das "DropTag", ein Sensorsystem, das genau verfolgt, ob das Paket unsanft behandelt oder gar fallengelassen wurde. Mit einer passenden Smartphone-App sind diese Informationen leicht abrufbar. Die Entwicklung soll so Online-Shoppern das Leben erleichtern, sich aber auch als nützlich für Lieferunternehmen und Produkthersteller erweisen.
Wer regelmäßig Waren im Internet bestellt, kennt das Problem: Ein Zusteller steht mit Paket vor der Tür und will möglichst schnell weiter. Die Schachtel sieht eigentlich heil aus, entsprechend fällt die eigene Reaktion aus. "Wir haben wahrscheinlich alle schon an der Tür den Empfang einer Sendung bestätigt, ohne uns die Zeit zu nehmen, die Waren auszupacken und zu prüfen, ob der Inhalt in gutem Zustand ist", so Tom Lawrie-Fussey, Business Development Manager bei Cambridge Consultants. Dieses Problem soll DropTag dadurch minimieren, indem zumindest klar ist, ob die Sendung unterwegs pfleglich behandelt wurde.
DropTag umfasst eine Sensorplattform, die misst, wenn ein Paket beispielsweise stark geschüttelt oder gar fallengelassen wird. Per Bluetooth-Verbindung können Daten an ein Smartphone und somit die zugehörige App übermittelt werden, was dann nötigenfalls Warnungen anzeigt. Das Unternehmen will die Lösung noch weiterentwickeln, so dass beispielsweise genau aufgezeichnet wird, wann und wo genau es kritische Situationen gab. Zudem prüft man den Einbau weiterer Sensoren wie beispielsweise Thermometer für Kühltransporte in der Pharmazie oder Lebensmittelindustrie.
Ein DogTag sollte Lawrie-Fussey letztlich Materialkosten von unter zwei Dollar haben, mit einer Knopfzelle wochenlang laufen und vermutlich wiederverwendbar sein. Damit und dank Bluetooth-Konnektivität verspricht die Entwicklung nicht nur für Paketempfänger Vorteile. So könnte ein aufwendiger manueller Scan von Paketen in Logistikzentren entfallen, wenn Pakete dank DogTag einfach beim Passieren automatisierter Schranken registriert werden. In Verbindung mit eine GPS-fähigen Handset wäre es auch möglich, den Standort von Sendungen wirklich in Echtzeit zu verfolgen.
Abzuwarten bleibt, ob Cambridge Consultants als Spezialist für Technologieentwicklung auch Industriepartner finden wird, die an einer kommerziellen Umsetzung und Nutzung des DropTags interessiert sind. Potenzielle Interessenten können sich im April im Rahmen der Hannover Messe ein Bild von der Lösung machen.
Veröffentlicht am 11.02.2013 22:40:22
Cambridge - Geht es nach dem Technologieunternehmen Cambridge Consultants, werden Paketempfänger in Zukunft auch ohne Auspacken bei der Übernahme gut abschätzen können, ob denn der Inhalt wirklich noch heil sein mag. Möglich macht dies das "DropTag", ein Sensorsystem, das genau verfolgt, ob das Paket unsanft behandelt oder gar fallengelassen wurde. Mit einer passenden Smartphone-App sind diese Informationen leicht abrufbar. Die Entwicklung soll so Online-Shoppern das Leben erleichtern, sich aber auch als nützlich für Lieferunternehmen und Produkthersteller erweisen.
Wer regelmäßig Waren im Internet bestellt, kennt das Problem: Ein Zusteller steht mit Paket vor der Tür und will möglichst schnell weiter. Die Schachtel sieht eigentlich heil aus, entsprechend fällt die eigene Reaktion aus. "Wir haben wahrscheinlich alle schon an der Tür den Empfang einer Sendung bestätigt, ohne uns die Zeit zu nehmen, die Waren auszupacken und zu prüfen, ob der Inhalt in gutem Zustand ist", so Tom Lawrie-Fussey, Business Development Manager bei Cambridge Consultants. Dieses Problem soll DropTag dadurch minimieren, indem zumindest klar ist, ob die Sendung unterwegs pfleglich behandelt wurde.
DropTag umfasst eine Sensorplattform, die misst, wenn ein Paket beispielsweise stark geschüttelt oder gar fallengelassen wird. Per Bluetooth-Verbindung können Daten an ein Smartphone und somit die zugehörige App übermittelt werden, was dann nötigenfalls Warnungen anzeigt. Das Unternehmen will die Lösung noch weiterentwickeln, so dass beispielsweise genau aufgezeichnet wird, wann und wo genau es kritische Situationen gab. Zudem prüft man den Einbau weiterer Sensoren wie beispielsweise Thermometer für Kühltransporte in der Pharmazie oder Lebensmittelindustrie.
Ein DogTag sollte Lawrie-Fussey letztlich Materialkosten von unter zwei Dollar haben, mit einer Knopfzelle wochenlang laufen und vermutlich wiederverwendbar sein. Damit und dank Bluetooth-Konnektivität verspricht die Entwicklung nicht nur für Paketempfänger Vorteile. So könnte ein aufwendiger manueller Scan von Paketen in Logistikzentren entfallen, wenn Pakete dank DogTag einfach beim Passieren automatisierter Schranken registriert werden. In Verbindung mit eine GPS-fähigen Handset wäre es auch möglich, den Standort von Sendungen wirklich in Echtzeit zu verfolgen.
Abzuwarten bleibt, ob Cambridge Consultants als Spezialist für Technologieentwicklung auch Industriepartner finden wird, die an einer kommerziellen Umsetzung und Nutzung des DropTags interessiert sind. Potenzielle Interessenten können sich im April im Rahmen der Hannover Messe ein Bild von der Lösung machen.
Handy stellt Quecksilber im Wasser fest
Veröffentlicht am 11.02.2013 22:40:22
Burgos - Smartphones können die Menge an Quecksilber an einer speziellen Oberfläche identifizieren. Chemiker der Universität Burgos haben eine Membran entwickelt, die ihre Farbe bei Vorhandensein von Quecksilber im Wasser wechselt. Das Smartphone fotografiert diese und kann zusätzlich die Quantität des Giftmetalls feststellen. Das dünne Blatt wird für fünf Minuten ins Wasser gelegt und bedeutet bei Rot-Werden einen generellen Gehalt von Quecksilber. Um die Menge herauszufinden, wird lediglich eine Bildbearbeitungssoftware benötigt, die auf Handys oder Tablets installiert wird.
Veröffentlicht am 11.02.2013 22:40:22
Burgos - Smartphones können die Menge an Quecksilber an einer speziellen Oberfläche identifizieren. Chemiker der Universität Burgos haben eine Membran entwickelt, die ihre Farbe bei Vorhandensein von Quecksilber im Wasser wechselt. Das Smartphone fotografiert diese und kann zusätzlich die Quantität des Giftmetalls feststellen. Das dünne Blatt wird für fünf Minuten ins Wasser gelegt und bedeutet bei Rot-Werden einen generellen Gehalt von Quecksilber. Um die Menge herauszufinden, wird lediglich eine Bildbearbeitungssoftware benötigt, die auf Handys oder Tablets installiert wird.
NTT Docomo startet HEVC-Videokompression
Veröffentlicht am 08.02.2013 12:21:13
Tokio/Berlin - Der japanische Mobilfunk-Gigant NTT Docomo führt die innovative Videokompressionstechnologie HEVC (High Efficiency Video Coding) ein. Dieses Verfahren trägt nicht nur zu einer Minimierung der Netzwerkbelastung, sondern auch zur erheblichen Steigerung der Bildqualität bei. Die neue Komprimierungstechnologie soll bereits im März lizenziert und künftig in Smartphones integriert werden.
"Das Verfahren ist nicht ausschließlich von NTT Docomo, sondern in Zusammenarbeit mit führenden Unternehmen und unter anderem dem Fraunhofer-Institut entstanden. Da die erste Version ab März verfügbar ist, fangen Hersteller bereits jetzt an, Prototypen von Chips zu entwickeln, die anschließend in Smartphones eingebaut werden", so Detlev Marpe vom Fraunhofer-Institut. Laut dem Experten benötigen die Videos dank dieser Technologie nur das halbe Datenvolumen.
Von diesem neuen System profitieren Nutzer und Betreiber gleichermaßen. Einerseits ermöglicht es dem User eine absolut störungsfreie Wiedergabe ohne Verzögerungen, andererseits kann die Netzwerklast verringert und der Download beschleunigt werden. Da HEVC die erforderliche Bandbreite halbiert, ohne dabei die Bildqualität zu mindern, können Videos im Vergleich zu existierenden Technologien - wie MPEG-4 AVC - doppelt so schnell heruntergeladen werden.
Die Zahl der Produkte, die HEVC zu En- und Decodierung nutzen, steigt stetig. Während der CES http://cesweb.org
im Januar hat Samsung angekündigt, Fernseher in absehbarer Zeit mit dieser Komprimierungstechnologie auszustatten. Chiphersteller Broadcom wiederum hat kürzlich den neuen "BCM7445" präsentiert, der die Wiedergabe von 4K Ultra HD TV oder bis zu vier Full-HD Streams zur gleichen Zeit ermöglicht.
Veröffentlicht am 08.02.2013 12:21:13
Tokio/Berlin - Der japanische Mobilfunk-Gigant NTT Docomo führt die innovative Videokompressionstechnologie HEVC (High Efficiency Video Coding) ein. Dieses Verfahren trägt nicht nur zu einer Minimierung der Netzwerkbelastung, sondern auch zur erheblichen Steigerung der Bildqualität bei. Die neue Komprimierungstechnologie soll bereits im März lizenziert und künftig in Smartphones integriert werden.
"Das Verfahren ist nicht ausschließlich von NTT Docomo, sondern in Zusammenarbeit mit führenden Unternehmen und unter anderem dem Fraunhofer-Institut entstanden. Da die erste Version ab März verfügbar ist, fangen Hersteller bereits jetzt an, Prototypen von Chips zu entwickeln, die anschließend in Smartphones eingebaut werden", so Detlev Marpe vom Fraunhofer-Institut. Laut dem Experten benötigen die Videos dank dieser Technologie nur das halbe Datenvolumen.
Von diesem neuen System profitieren Nutzer und Betreiber gleichermaßen. Einerseits ermöglicht es dem User eine absolut störungsfreie Wiedergabe ohne Verzögerungen, andererseits kann die Netzwerklast verringert und der Download beschleunigt werden. Da HEVC die erforderliche Bandbreite halbiert, ohne dabei die Bildqualität zu mindern, können Videos im Vergleich zu existierenden Technologien - wie MPEG-4 AVC - doppelt so schnell heruntergeladen werden.
Die Zahl der Produkte, die HEVC zu En- und Decodierung nutzen, steigt stetig. Während der CES http://cesweb.org
im Januar hat Samsung angekündigt, Fernseher in absehbarer Zeit mit dieser Komprimierungstechnologie auszustatten. Chiphersteller Broadcom wiederum hat kürzlich den neuen "BCM7445" präsentiert, der die Wiedergabe von 4K Ultra HD TV oder bis zu vier Full-HD Streams zur gleichen Zeit ermöglicht.