LoRa 모듈 E22-900T22S Breakout Board 설계 2

Image
지난번 설계 에서 두 가지 업데이트 사항이 있다. 첫 번째로 3.3V 로 로직 컨버터를 거치지 않고 직접 통신할수 있는 포트를 구성하였다.  이 포트를 통해 3.3V 동작의 MCU를 사용할때 좀 더 빠르게 회로를 구성  할수 있을것으로 기대한다. 두 번째로 동작 전압 레벨이 서로 다른 MCU 와 Lora 모듈이 통신할때 사용할 기준전압을 직접 인가 할 수 있도록 하였다. 보드에는 위 와같은 점퍼가 주어지는데 3.3V 나 5V 로 점프 시키지 않을 경우 VREF 핀에 사용할 소스전압을 직접 인가해 주어야한다. 특수한 경우가 아니라면 Vref를 사용하는일은 없을것 같다. 위사 진들은 이번에 제작한 테스트 모듈이다.  왼쪽은 E22-900T22S 모듈이고 오른쪽은 ATmega328P/PB 3.3V 8Mhz 보드를 준비했다. 오른쪽의 보드는 ATmega328P/PB 를 모두 장착하여 사용할 수 있도록 설계했다. E22-900T22S 보드의 전체 회로는 다음과 같다. 동작 전압 레벨이 서로 다른 장치와 통신 할 수 있도록 레벨 컨버터를 추가 하였고, 핀 헤더를 장착하여 다른 MCU 보드와 통신하거나 점퍼를 수정해서 USB 시리얼 통신을 할수 있도록 했다. 모듈의 테스트는 mischianti의 E22 라이브러리 를 사용했다. 정리가 아주 잘 되어있는 라이브러리로 생각된다. 아래 코드는 라이브러리에 포함된 시리얼 입력을 LoRa 통신으로 전송하는 예제이다. Lora ATmega328p AUX D3 RX D4 TX D5 M1 D6/GND M0 D7/GND 송신측 코드 #include "Arduino.h" #include "LoRa_E22.h" LoRa_E22 e22ttl(4, 5, 3, 7, 6); void setup() { Serial.begin(9600); delay(500); // Startup all pins and UART e22ttl.begin(); Serial.println(&q

[Raspberry Pi] - rc카 만들기 #6 카메라(Pi Cam)




 #6 카메라(Pi Cam)


이번에는 로봇에 카메라를 달아 볼 것이다.
카메라의 쓰임은 원격 조종시 로봇 주변 환경의 탐사와, 동영상 혹은 스틸컷을 데이터로 남기기 위함이다. 또한 로봇에 장착된 AP에 접속한 기기들은 실시간 스트리밍 영상을 볼 수 있다.

카메라를 사용하시위해서는 환경 설정에서 카메라를 활성화 시켜주어야한다.
환경설정 - 인터페이스 옵션에 있다.



sudo raspi-config
코드는 듀얼 쇼크(DualShock4) 기준으로 작성되었다.


square 버튼다운시 스틸컷을 찍어 날짜 및 시간을 이름으로 외부 저장 장치에 저장된다.
circle 버튼다운시 동영상 스트리밍을 시작한다. 
왜 스크립트를 따로 만들어야 하는지는 조금있다 설명하겠다.
cross 버튼다운시 스트리밍을 종료한다.

if joystick.get_button(0):
    #print("spuare pressed")
    now = time.localtime()
    file ='%04d-%02d-%02d-[%02d.%02d.%02d]' % (now.tm_year, now.tm_mon, now.tm_mday, now.tm_hour, now.tm_min, now.tm_sec)
    print('picture time' + file + '.png')
    call('sudo raspistill -v -p 100,100,400,300 -o /media/pi/PIC/' + file + '.png &', shell=True)
elif joystick.get_button(1):
    #print("cross pressed")
    print("raspivid and lt-test-launch kill")
    call("sudo killall raspivid && sudo killall lt-test-launch &", shell=True)
elif joystick.get_button(2):
    #print("circle pressed")
    print("video stream")
    call('/usr/bin/sudo /usr/bin/python3 /home/pi/PiCam.py', shell=True)
cs

동영상 스트리밍에는 gstreamer를 사용할 것이다.

make gstreamer
wget http://gstreamer.freedesktop.org/src/gst-rtsp/gst-rtsp-0.10.8.tar.bz2
bzip2 -d gst-rtsp-0.10.8.tar.bz2
tar xvf gst-rtsp-0.10.8.tar
cd gst-rtsp-0.10.8/./configure
make
동영상 스트리밍을 AP를 통해 전송할 것이다.
스트리밍을 할 IP주소를 정해주어야 하는데 AP와 Raspberry Pi는 이더넷 으로 연결 되어있기 때문에 eth0의 아이피를 적어주면 된다.
다만 if의 이름은 스트링이 아닌 바이트코드 형식이기 때문에 python3를 사용한다면 앞쪽에 b를 붙여주어야 바이트코드로 인식 한다. 

아래의 코드는 Raspberry Pi가 AP에 접속 될 때의 이더넷 아이피로 동영상을 전송한다.
스크립트를 따로 만들어 주어야 하는 이유는 지금까지 만든 메인 스크립트는 부팅시 자동으로 실행 되도록 앞서 설정해두었다. 문제는 메인 스크립트를 실행시 아래 코드가 포함 될 결우 아직 네트워크에 접속이 되지 않은 상태에서 IP를 불러오려고 하기때문에 인터럽트가 발생해 로봇은 작동하지 못한다. 

from subprocess import call
import socket
import fcntl
import struct
def get_ip_address(ifname):
    s = socket.socket(socket,AF_INET, socket,SOCK_DGRAM)
    return socket.inet_ntoa(fcntl.ioctl(s.fileno(), 0x8915, struct.pack('256s', ifname[:15]))[20:24])
camIP = b'eth0' #ethernet
local = b'lo'    #local
wlan0 = b'wlan0'#wifi
print("Network interfaces")
print("ether IP : " + str(get_ip_address(camIP)))
call('sudo raspivid -t 0 -h 720 -w 1280 -fps 25 -b 2000000 -p 100,100,400,300 -o - | gst-launch -v fdsrc ! h264parse ! gdppay ! tcpserversink host='
        + str(get_ip_address(camIP)) + ' port=5000 | gst-rtsp-0.10.8/examples/./test-launch "( tcpclientsrc host='
        + str(get_ip_address(cmaIP)) + ' port=5000 ! gdpdepay ! avdec_h264 ! rtph264pay name=pay0 pt=96 )" &', shell=True)
cs
고정IP를 이용하는 방법도 있는다.
하지만 그 방법은 다른 기기가 이미 해당 IP를 사용하고 있으면 자동할당이 되어버리기 때문에 공유기에 MAC주소에 IP를 고정시키는 기능이 없다면 이 방법을 사용하는 쪽이 속편하다. 세그먼트를 이용해 스트리밍 중인 아이피를 표시 해주는 것도 좋은 방법이다.

위 방법대로 하였다면 주소 열기 기능이 있는 플레이어를 통해 재생이 가능하다.
지연은 1초가 조금 안되는것 같다.
rtsp://192.168.1.100/test










Thx.

Comments

Popular posts from this blog

[POE] - 패스 오브 엑자일 획득키 F 의 사용법 (Path of Exile)

[Arduino] - HC-06를 이용해 PC 와 Arduino 블루투스 연결

[Python] - 블루투스 모듈 HC-06의 MAC 주소를 이용하여 통신 포트 찾기