Brainchip Klassengruppe WKN: A14Z7W ISIN: AU000000BRN8 Kürzel: BRN Forum: Aktien User: Rarosch

0,099 EUR
+1,54 % +0,002
14. Mai 2026, 23:00 Uhr, L&S Exchange
Kommentare 41.789
Kirsten79
Kirsten79, 23.02.2023 15:53 Uhr
0
@Perhaps wird mir sagen, ob ich auf dem Holzweg bin 😁
Kirsten79
Kirsten79, 23.02.2023 15:53 Uhr
0
https://www.hackster.io/shahizat/a-smart-water-controller-using-tinyml-and-nordic-thingy-53-ba8124
Kirsten79
Kirsten79, 23.02.2023 15:53 Uhr
0
Ich lasse nicht locker 😁 Thingy 53...mit einem Beispiel wie man neurale Netze trainiert
pantarhei
pantarhei, 23.02.2023 12:37 Uhr
9

Sehe ich anders. Im hochsensiblen Bereich Autonomes Fahren werden die Hersteller absolut auf Sicherheit setzen und nicht zu Systemen mit disruptiver Technologie tendieren, für die es keine Erfahrungsdaten gibt. Die ganzen Probleme mit den Tesla-Unfällen dürften da noch zusätzlich abschrecken.

Ich sehe das etwa so: Neuromorphe Datenverarbeitung ist bei der Mustererkennung den von-Neumann Prgrammen weit überlegen aufgrund (1) hoher Parallelität, (2) schneller Zyklen (wenige Layer) und (3) optimierten (One-Shot) Lernens. Ich gehe davon aus, dass in einigen Jahren sämtliche Mustererkennung über neuromorphe Datenverarbeitung laufen wird. Andererseits eignet sich für regelbasierte und logische Berechnungen von-Neumann Architektur. Die neuromorphe Einheit wird dann am Beispiel Autonomes Fahren mit dem Input der Kameras die relevanten Bildelemnte erkennen und Informationen wie "Vorfahrtschild - 30km/h - Fahrrad 10m vorne links - scharfe Rechtskurve - Tunnel in 50m - ... " melden. Daraus werden Handlungsanweisungen wie "Bremsen, 30 km/h Fahren, Lenkrad nach rechts einschlagen, Licht anschalten" sicherlich über Programme auf von-Neumann-Einheiten ausgeführt. In unserem Gehirn ist das ähnlich: Die gesamte Umgebung (Schilder, Kurven, Personen ...) nehmen wir meist unbewusst war (diese Unmenge an Information zu verarbeiten fällt uns sehr leicht - klassische neuromorphe Verarbeitung), entscheiden uns dann aber bewusst, was wir damit machen, ob wir schon das Licht anschalten, wie schnell wir fahren wollen und ggf. einen Strafzettel riskieren wollen (bewusstes, idealerweise logisches Denken, ist viel langsamer und fällt uns schwerer).
D
Drosselbart, 23.02.2023 12:29 Uhr
1

Ich habe schon ganz oft Berichte über Neuentwicklungen auf Basis vom Thingy 53, in Verbindung mit einem Arm-Cortex-M33 gelesen. Ich denke die Spur ist vielversprechend

ich auch 👍
Kirsten79
Kirsten79, 23.02.2023 11:52 Uhr
0
Ich habe schon ganz oft Berichte über Neuentwicklungen auf Basis vom Thingy 53, in Verbindung mit einem Arm-Cortex-M33 gelesen. Ich denke die Spur ist vielversprechend
D
Drosselbart, 23.02.2023 11:39 Uhr
0

Lässt mir einfach keine Ruhe. Hardwareplattform Nordic Thingy:53. Mit einem Arm-Cortex-M33 Für neuronale Netze 🧐

Natürlich - wenn Entwickler für Edge Impuls was zusammenklöppeln dann ist der erste der es umsetzt Nordic Semiconductor.
Goldammer
Goldammer, 23.02.2023 11:38 Uhr
2
"Weiter zur Erklärung: Kunpeng 920 ist die branchenweit führende Arm-basierte Server-CPU. Unter Verwendung modernster 7-nm-Prozesse wurde die CPU unabhängig von HUAWEI basierend auf der Arm-Architekturlizenz entwickelt. Die Prozessorleistung wird durch Optimieren von Verzweigungsvorhersagealgorithmen, Erhöhen der Anzahl von Ausführungseinheiten und Verbessern der Architektur des Speichersubsystems erheblich verbessert. Bei typischen Frequenzen erzielt die Kunpeng 920 CPU mehr als geschätzte 930 auf SPECint®_rate_base2006, während die Energieeffizienz um 30 % besser ist als die ihrer Branchenkollegen. Kunpeng 920 bietet eine viel höhere Rechenleistung für Rechenzentren und senkt gleichzeitig den Stromverbrauch." siehe da
Goldammer
Goldammer, 23.02.2023 11:37 Uhr
1
Ich werfe es Euch mal hin: Die Info habe ich aus dem WO-Forum von Optissium kopiert, danke erstmal dazu!... "Basierend auf dem unten angegebenen Link soll die KunPeng-CPU vier Akida-Knoten hosten. Der KunPeng-Prozessor stammt von HiSilicon und HiSilicon ist eine hundertprozentige Tochtergesellschaft von Huawei. Facilitating research on bleeding-edge HPC technologies The eX3 infrastructure is continuously under build-up and reconfiguration in order to keep up-to-date with the technology development. The following hardware resources, acquired in the first phase procurement, are currently available. For further details, please consult the eX3 wiki. https://www.ex3.simula.no/resources ..."
Kirsten79
Kirsten79, 23.02.2023 11:00 Uhr
1
https://www.edgeimpulse.com/blog/breaking-news-ml-can-detect-the-sound-of-shattered-glass?s=35
Kirsten79
Kirsten79, 23.02.2023 11:00 Uhr
1
Lässt mir einfach keine Ruhe. Hardwareplattform Nordic Thingy:53. Mit einem Arm-Cortex-M33 Für neuronale Netze 🧐
sl.oldi
sl.oldi, 23.02.2023 10:02 Uhr
0
um auf eine "Ist-Situation" zu reagieren (Reh im Tunnel / Tagesbaustelle / Kind auf der Strasse / Unfallsituationen ect.) richtig reagieren zu können wird wohl beides von Nöten sein. ... Eine vorprogramierte Grundtechnik die von der Cloud auf den laufenden gehalten wird, sowie eine sichere Reaktion am Fahrzeug "on edge" durch Soft,-Hardware & Sensorik am Fahrzeug. .. Tesla hat ja eindeutig bewiesen das es mit einmaligen vorprogrammieren & paar Kammeras nicht getan ist. .....
Rarosch
Rarosch, 23.02.2023 9:52 Uhr
0

Sehe ich anders. Im hochsensiblen Bereich Autonomes Fahren werden die Hersteller absolut auf Sicherheit setzen und nicht zu Systemen mit disruptiver Technologie tendieren, für die es keine Erfahrungsdaten gibt. Die ganzen Probleme mit den Tesla-Unfällen dürften da noch zusätzlich abschrecken.

Das kann ich leider nicht beurteilen.
G
Gast-753035001, 23.02.2023 9:32 Uhr
0
Sehe ich anders. Im hochsensiblen Bereich Autonomes Fahren werden die Hersteller absolut auf Sicherheit setzen und nicht zu Systemen mit disruptiver Technologie tendieren, für die es keine Erfahrungsdaten gibt. Die ganzen Probleme mit den Tesla-Unfällen dürften da noch zusätzlich abschrecken.
Rarosch
Rarosch, 23.02.2023 9:14 Uhr
3
https://brainchip.com/designing-smarter-and-safer-cars-with-essential-ai/
Rarosch
Rarosch, 23.02.2023 9:14 Uhr
11

Ich kann mich täuschen, aber ich sehe keine Vorteile beim Einsatz neuromorpher Chips im Bereich Autonomes Fahren. Die grundsätzliche Funktionsweise, nur auf relevanten Input zu reagieren, ist bei einer Umgebungsberechnung, die auf sämtliche Ereignisse reagieren muß, nicht hilfreich. Hier haben cloudbasierte Lösungen, deren Lernalgorithmen durch die permanente Erfahrung einer Vielzahl von Fahrzeugen laufend erweitert werden können und grundsätzlich alle Ereignisse berechnen, eindeutig einen Vorteil. Als Notfallsystem in Bereichen ohne Netzanbindung (Tunnel z.B.) sehe ich auch keine Vorteile, weil es genügend Edge AI Lösungen gibt, die auch ohne Cloud berechnen können.

Assistiertes Fahren – Computer Vision Neben der Neudefinition des Fahrgasterlebnisses in der Kabine ermöglicht AKIDA fortschrittlichen Fahrerassistenzsystemen (ADAS) wie Computer Vision, Fahrzeuge, Fußgänger, Radfahrer, Schilder und Objekte mit unglaublich hoher Präzision zu erkennen. Insbesondere die Kombination von zweistufigen Objekterkennungs-Inferenzalgorithmen mit lokalem AKIDA-Silizium ermöglicht es Computer-Vision-Systemen, die Verarbeitung in zwei Hauptstufen effizient durchzuführen – am Sensor (Inferenz) und am KI-Beschleuniger (Klassifizierung). Unter Verwendung dieses Paradigmas analysieren Computer-Vision-Systeme schnell und effizient große Mengen an Inferenzdaten innerhalb spezifischer ROIs. Die intelligente Verfeinerung von Inferenzdaten eliminiert den Bedarf an rechenintensiver Hardware wie Allzweck-CPUs und -GPUs, die beträchtliche Mengen an Strom verbrauchen und die Größe und das Gewicht von Computer-Vision-Systemen erhöhen. Es ermöglicht ADAS auch, unglaublich detaillierte Echtzeit-3D-Karten zu erstellen, die den Fahrern helfen, sicher auf stark befahrenen Straßen und Autobahnen zu navigieren. Assistiertes Fahren – LiDAR- Automobilunternehmen nutzen auch ein sequentielles Berechnungsmodell mit AKIDA-betriebenen intelligenten Sensoren und KI-Beschleunigern, um das Design neuer LiDAR-Systeme zu ermöglichen. Dies liegt daran, dass die meisten LiDAR in der Regel auf Allzweck-GPUs angewiesen sind – und Cloud-zentrierte, rechenintensive Inferenzmodelle ausführen, die einen großen CO2-Fußabdruck erfordern, um enorme Datenmengen zu verarbeiten. Tatsächlich feuern LiDAR-Sensoren typischerweise 8 bis 108 Laserstrahlen in einer Reihe zyklischer Impulse ab, die jeweils Milliarden von Photonen pro Sekunde emittieren. Diese Strahlen prallen von Objekten ab und werden analysiert, um Fahrzeuge, Fußgänger, Tiere und Straßenschilder zu identifizieren und zu klassifizieren. Mit AKIDA verarbeitet LiDAR Millionen von Datenpunkten gleichzeitig und benötigt nur minimale Rechenleistung, um sich bewegende und stationäre Objekte mit gleicher Präzision genau zu erkennen – und zu klassifizieren. Die Begrenzung der Inferenz auf einen ROI hilft Automobilherstellern, rechen- und energieintensive Hardware wie Allzweck-CPUs und GPUs in LiDAR-Systemen zu eliminieren – und die Einführung fortschrittlicher assistierter Fahrfunktionen zu beschleunigen.
Meistdiskutiert
Thema
1 Trading- und Aktien-Chat
2 PlasCred Circular Innovations -4,57 %
3 Security der nächsten Generation +3,73 %
4 Aktuelles zu Almonty Industries -6,07 %
5 INTEL Hauptdiskussion -3,62 %
6 Diginex -2,31 %
7 Ondas Holdings +26,52 %
8 Linien und Wellen Austausch Forum +5,02 %
9 Renk und alles was dazugehört +2,40 %
10 Metaplanet Inc.
Alle Diskussionen
Aktien
Thema
1 PlasCred Circular Innovations -4,57 %
2 Security der nächsten Generation +3,73 %
3 Aktuelles zu Almonty Industries -6,07 %
4 INTEL Hauptdiskussion -3,62 %
5 Diginex -2,31 %
6 Ondas Holdings +26,52 %
7 Linien und Wellen Austausch Forum +5,02 %
8 Renk und alles was dazugehört +2,40 %
9 Max Power Mining Hauptdiskussion +17,39 %
10 PILBARA MINERALS Hauptdiskussion +1,76 %
Alle Diskussionen