Aktuellt

Utveckling kring FPGA

BitSimNOW och Prevas i Uppsala samlade sina runt 20 st FPGA-konsulter i vårt första gemensamma möte för att dra upp riktlinjerna framöver.

Har ni behov eller vill bolla idéer kring FPGA? Behöver ni hjälp med  till exempel verifieringsmetodik, kodgranskning, partitionering mellan PS och PL (FPGA och processor), schema- och pingranskningar eller felsökning?
Välkommen att höra av dig till någon av oss i FPGA-teamet:

Niclas, Per, Andreas, Nithya, Johan, Kent, Wen, Klas, Håkan, Miguel, Yichen, Mattias, Ulf, Johan, Nils-Johan, Gerhard, Ulf eller Tomas.

Kontaktuppgifter hittar du här.

Prevas förvärvar BitSim NOW AB

Prevas har tecknat avtal om att förvärva 100 procent av BitSim NOW AB. BitSim NOW är med sina 35 anställda ett konsultbolag i Stockholm som fokuserar på produktutveckling.

Citat

”Detta är ett bra och kompletterande tillskott i våra ambitioner att befästa positionen som en premiumleverantör inom avancerad produktutveckling. Inte minst stärker vi förmågan ytterligare att ta oss an produktutvecklingsprojekt där vi tar ansvar för allt från innovation till utveckling och därefter verifiering, tester och förberedelser för produktion.”
Hans-Erik Wikman, regionchef på Prevas i Stockholm

”Vi är glada att komma in som en nod i Prevas nätverk. Detta ger oss bra möjligheter att vidareutveckla verksamheten och vi ser stor potential i att förädla och kombinera vår spets med Prevas styrkor.”
Philip Nyströmer, VD på BitSim NOW AB

Läs mer här

Mäta en kulstöts längd innan landning – Nytt Exjobb

Våra exjobbare Jesper Eriksson och Fredrik Jonsson som utbildar sig inom Medicinsk teknik, högskoleingenjör, 180 hp har påbörjat ex-jobbet som går ut på att se om det går att bestämma en kulstöts längd med hjälp av moderna kameror och bildbehandling. Flera olika kameror har valts ut och det första fältprovet kommer att ske i nästa vecka på en friidrottsplan där de kommer att filma kulstötar, dvs samla in rådata för vidare bearbetning.

Läs mer på engelska:

Improving distance and impact location measurements in athletic sports using state-of-the-art machine learning/machine vision

This thesis project is an excellent way to get hands-on experience using AI to solve complex computer vision problems and learn how to go from a system design to a hardware prototype.

This thesis-project aims to design and build a prototype of a camera-tracking system that can determine where objects land within a fixed area. Although similar systems already exist today, the novelty of this project lies in the fact that we are trying to increase the area that can be monitored.

Background: Did you win the Olympics, or did you ”only” finish fourth?
This question is a reality for many athletes in today’s world, especially in events such as javelin throw, discus throw, hammer throw and, shot put. To measure where the object lands is a manual task conducted by humans; therefore, mistakes and errors in the measurement process are not uncommon. The person making the measurements must avoid being hit by a deadly projectile, which does not make the task any easier. Imagine training your entire life and not getting that well-deserved medal because of a measurement error. To prevent this from happening, we want to try and design a computer-vision system that can assist in the measurement process for the events mentioned above. Since tracking flying objects is a general task, a functional prototype could be of interest in many other areas and not just sports events. You do not need to be interested in these events or have any previous knowledge of the events to complete this project.

Problem formulation: Can we use modern and intelligent technology (AI) to measure the length of the throws of one or several of the following events: javelin throw, discus throw, hammer throw, and shot put, or should it only be used as a complement to the current measurement process.

Target: To construct a prototype using a set of cameras connected to a computer that can measure the length of the throws, we want the system to present a result in under 10 seconds from the moment of impact.

Below is a compiled list of some of the questions/problems that need to be addressed in this project.

Hom do different surfaces (e.g. grass, gravel or plastic) affect the system?
How do we make sure that the system only records the first impact (objects can bounce)?
How to make correct measurements when the object lands abnormally, .e.g a javelin that lands flat on the ground?
How many camera sensors are needed, and where should they be placed relative to the thrower?
Which type of camera sensors are best suited for this task?
Which AI model should be used to achieve a good mix of accuracy and performance?
How do we collect and store data that the model can be trained on?

IR Sensor Linux – V4L SW Driver (VoSPI)

BitSim NOW har en V4L (Video4Linux) SW driver för VoSPI redo.

FLIR Lepton IR-sensorer använder ett dedikerat format som kallas VoSPI, ”Video over SPI”. MIPI CSI-2 är ett standard videointerface-format som ofta används av tillverkare av bild-sensorer.
BitSim NOW har utvecklat ett IP-block – BitVoSPI MIPI – som fungerar som en brygga mellan dessa två standarder.

BitSim NOW’s hårdvaru-IP-block, som är implementerat i en FPGA, omvandlar VoSPI till MIPI CSI-2.

Programvaran är byggd på Yocto – Linux + Video for Linux tillsammans med gstreamer. En histogramfilterfunktion är adderad för att förstärka detaljer i IR-bilden. Och slutligen har en dedikerad gstreamer client applikation skapats för den mottagande PC-sidan för att hantera monokrom video.

Demo-systemet består av sensorn, ett FPGA-kort och ett i.MX8 ARM-kort som kör Linux.

BitSim’s VoSPI FPGA IP-block har testats på Xilinx- och Microchip-plattformar.

BitSim’s MIPI-CSI2 block finns tillgängligt för Xilinx, Intel och Microchip FPGAer.

Läs mer om BitSims VoSPI IP: https://bitsimnow.se/bitvospirx-for-flir-lepton-ir-sensor/

Läs mer om MIPI CSI-2: https://www.mipi.org/specifications/csi-2

Se mer på https://bitsimnow.se/ip-block/ eller kontakta info@bitsimnow.com