macOS 에서 리산테크 AVR FLASHER 10 사용하기

![img_1](https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEjh_UQMMViB7Of1FnJHfsB5xeHz97bHSsjJk1JtteJCBYDswq109E_WFqRIsOuYLcGFQ2UXLdkERQHWFspN9JUUzCywiamd4JVcXVp3fPrjd0kMElJ2wlAC6fZlICVxuw6JV3bSRDRQBpITNEQgEWaCBStmQwkSV9yVxjOcZUX_XTVnxlxohNqYlUvRKls/s4000/KakaoTalk_Photo_2025-01-04-00-14-17.jpeg) AVR 프로그래밍에 주로 사용하는 리산테크의 AVR FLASHER 10 제품이다. 총 10개의 서로다른 펌웨어를 저장하여 PC 없이도 타겟 장치의 전원으로 펌웨어 다운로드가 가능하다. 펌웨어 다운로드가 고속으로 이루어지기 때문에 아주 편하다. 최근 윈도우 데스크탑 보다 맥북으로 작업을 하는 상황이 많아지면서 이 장비를 사용하는데에 소프트웨어 지원이 윈도우만 되기때문에 불편함을 격고 있었다. 이것때문에 윈도우 노트북을 장만하는건 말이 안되는거 같고 그렇다고 매번 데스크탑을 켜는것도 불편하고 고민만 하고 있었다. 예전에는 부트캠프를 사용해 윈도우 용 프로그램을 쉽게 사용할수 있었지만 맥북이 애플실리콘을 사용하면서 이런점은 살짝 불편해 졌다고 볼수도있다. 호환성이 많이 좋아졌다고 하지만 예전에 Whisky로 시도했다가 실패한 경험이 있었기 때문에 큰 기대는 하지 않으려고했다. 아직 가상화는 시도해보지 않았는데 UTM 은 좀 쓰기가 불편했고 Parallels 는 과금방식이 전부터 마음에 들지 않았다. 사실 개인 사용 목적으로는 VMWare가 무료이기 때문에 다른 선택지가 없다. ![img_2](https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEjl6Piz058YvIQ1Wv-lqH-lgM7cpMD1KP4Qps0jIAQ2KPVy8mK51ecO-iCA4eH3teAte-Kk...

[Raspberry Pi] - rc카 만들기 #6 카메라(Pi Cam)




 #6 카메라(Pi Cam)


이번에는 로봇에 카메라를 달아 볼 것이다.
카메라의 쓰임은 원격 조종시 로봇 주변 환경의 탐사와, 동영상 혹은 스틸컷을 데이터로 남기기 위함이다. 또한 로봇에 장착된 AP에 접속한 기기들은 실시간 스트리밍 영상을 볼 수 있다.

카메라를 사용하시위해서는 환경 설정에서 카메라를 활성화 시켜주어야한다.
환경설정 - 인터페이스 옵션에 있다.



sudo raspi-config
코드는 듀얼 쇼크(DualShock4) 기준으로 작성되었다.


square 버튼다운시 스틸컷을 찍어 날짜 및 시간을 이름으로 외부 저장 장치에 저장된다.
circle 버튼다운시 동영상 스트리밍을 시작한다. 
왜 스크립트를 따로 만들어야 하는지는 조금있다 설명하겠다.
cross 버튼다운시 스트리밍을 종료한다.

if joystick.get_button(0):
    #print("spuare pressed")
    now = time.localtime()
    file ='%04d-%02d-%02d-[%02d.%02d.%02d]' % (now.tm_year, now.tm_mon, now.tm_mday, now.tm_hour, now.tm_min, now.tm_sec)
    print('picture time' + file + '.png')
    call('sudo raspistill -v -p 100,100,400,300 -o /media/pi/PIC/' + file + '.png &', shell=True)
elif joystick.get_button(1):
    #print("cross pressed")
    print("raspivid and lt-test-launch kill")
    call("sudo killall raspivid && sudo killall lt-test-launch &", shell=True)
elif joystick.get_button(2):
    #print("circle pressed")
    print("video stream")
    call('/usr/bin/sudo /usr/bin/python3 /home/pi/PiCam.py', shell=True)
cs

동영상 스트리밍에는 gstreamer를 사용할 것이다.

make gstreamer
wget http://gstreamer.freedesktop.org/src/gst-rtsp/gst-rtsp-0.10.8.tar.bz2
bzip2 -d gst-rtsp-0.10.8.tar.bz2
tar xvf gst-rtsp-0.10.8.tar
cd gst-rtsp-0.10.8/./configure
make
동영상 스트리밍을 AP를 통해 전송할 것이다.
스트리밍을 할 IP주소를 정해주어야 하는데 AP와 Raspberry Pi는 이더넷 으로 연결 되어있기 때문에 eth0의 아이피를 적어주면 된다.
다만 if의 이름은 스트링이 아닌 바이트코드 형식이기 때문에 python3를 사용한다면 앞쪽에 b를 붙여주어야 바이트코드로 인식 한다. 

아래의 코드는 Raspberry Pi가 AP에 접속 될 때의 이더넷 아이피로 동영상을 전송한다.
스크립트를 따로 만들어 주어야 하는 이유는 지금까지 만든 메인 스크립트는 부팅시 자동으로 실행 되도록 앞서 설정해두었다. 문제는 메인 스크립트를 실행시 아래 코드가 포함 될 결우 아직 네트워크에 접속이 되지 않은 상태에서 IP를 불러오려고 하기때문에 인터럽트가 발생해 로봇은 작동하지 못한다. 

from subprocess import call
import socket
import fcntl
import struct
def get_ip_address(ifname):
    s = socket.socket(socket,AF_INET, socket,SOCK_DGRAM)
    return socket.inet_ntoa(fcntl.ioctl(s.fileno(), 0x8915, struct.pack('256s', ifname[:15]))[20:24])
camIP = b'eth0' #ethernet
local = b'lo'    #local
wlan0 = b'wlan0'#wifi
print("Network interfaces")
print("ether IP : " + str(get_ip_address(camIP)))
call('sudo raspivid -t 0 -h 720 -w 1280 -fps 25 -b 2000000 -p 100,100,400,300 -o - | gst-launch -v fdsrc ! h264parse ! gdppay ! tcpserversink host='
        + str(get_ip_address(camIP)) + ' port=5000 | gst-rtsp-0.10.8/examples/./test-launch "( tcpclientsrc host='
        + str(get_ip_address(cmaIP)) + ' port=5000 ! gdpdepay ! avdec_h264 ! rtph264pay name=pay0 pt=96 )" &', shell=True)
cs
고정IP를 이용하는 방법도 있는다.
하지만 그 방법은 다른 기기가 이미 해당 IP를 사용하고 있으면 자동할당이 되어버리기 때문에 공유기에 MAC주소에 IP를 고정시키는 기능이 없다면 이 방법을 사용하는 쪽이 속편하다. 세그먼트를 이용해 스트리밍 중인 아이피를 표시 해주는 것도 좋은 방법이다.

위 방법대로 하였다면 주소 열기 기능이 있는 플레이어를 통해 재생이 가능하다.
지연은 1초가 조금 안되는것 같다.
rtsp://192.168.1.100/test










Thx.

Comments

Popular posts from this blog

[POE] - 패스 오브 엑자일 획득키 F 의 사용법 (Path of Exile)

[Arduino] - HC-06를 이용해 PC 와 Arduino 블루투스 연결

[Python] - 블루투스 모듈 HC-06의 MAC 주소를 이용하여 통신 포트 찾기