Press "Enter" to skip to content

强化学习与自动驾驶

本站内容均来自兴趣收集,如不慎侵害的您的相关权益,请留言告知,我们将尽快删除.谢谢.

1.Carla Server

 

Carla目前的稳定版为 0.8.2 即可下载,linux解压后命令行执行

$ ./CarlaUE4.sh

这将启动一个全屏的仿真窗口,你能使用WASD驾驶车辆

 

实验中往往增加各种参数进行配置

$ ./CarlaUE4.sh -carla-server -benchmark -fps =10 -windowed -ResX=300 -ResY=300

carla-server参数表示以服务端模式运行,等待客户端连接

 

benchmark fps=10 表示仿真中每一个step的时间间隔相同

 

windowed ResX=300 ResY=300 表示窗口化以及大小

 

 

1.1 无界面启动

 

配置环境变量:SDL_VIDEODRIVER=offscreen 和 SDL_HINT_CUDA_DEVICE=0

 

程序中可以这幺写

 

my_env = {**os.environ, 'SDL_VIDEODRIVER': 'offscreen', 'SDL_HINT_CUDA_DEVICE': '0', }
 cmd = [path.join(environ.get('CARLA_ROOT'), 'CarlaUE4.sh'), self.map,
 "-benchmark", "-carla-server", "-fps=10", "-world-port{}".format(self.port),
 "-windowed -ResX={} -ResY ={}".format (carla_config.server_width, carla_config.server_height), "-carla-no-hud"]
 p = subprocess.Popen(cmd, env=my_env)

 

这个目前的缺点是默认第0块GPU,选择其他的会失效,在https://github.com/carla-simulator/carla/issues/225 有提到

 

如果你想能够选择gpu,可以选择下面的docker启动

 

1.2 docker启动

 

关于docker和nvidia docker的安装以及carla镜像的安装可以参考官网

 

在程序中

 

p = subprocess.Popen(['docker', 'run', '--rm', '-d', '-p',
 str(self.port) + '-' + str(self.port + 2) + ':' + 
 str(self.port) + '-' + str(self.port + 2),
 '--runtime=nvidia', '-e', 'NVIDIA_VISIBLE_DEVICES='+str(self.gpu), 
 "carlasim/carla: 0.8.4",
 '/bin/bash', 'CarlaUE4.sh', self.map, '-windowed',
 '-benchmark', '-fps=10', '-world-port=' + str(self.port)], shell=False, stdout=subprocess.PIPE)

 

如果你的docker为19.03,nvidia-docker是新版,调用gpu的方式有些许不同

 

p = subprocess.Popen (['docker', 'run', '--rm', '-d', '-p',
 str(self.port) + '-' + str(self.port + 2) + ':' + 
 str(self.port) + '-' + str(self.port + 2),
 '--gpus='+str(self.gpu), "carlasim/carla:0.8.4",
 '/bin/bash', ' CarlaUE4.sh', self.map, '-windowed',
 '-benchmark', '-fps=10', '-world-port=' + str(self.port)], shell=False,
 stdout= subprocess.PIPE)

 

docker启动即是以无界面方式启动

 

2.Carla Client

 

在上一步解压后的目录下有一个PythonClient目录,里面包含有客户端连接的样例代码client_example

 

当以服务端模式启动Carla后,默认监听端口为2000

 

运行python client_example.py –autopilot可以连接上服务端控制汽车

 

参数autopilot表示启动内置的自动驾驶功能,若没有这个参数则会随机输出动作

 

在程序中,我们首先需要读取配置文件。如Example.CarlaSettings.ini文件

 

若没有给出配置文件位置,在程序中也可以设置配置。

 

settings = CarlaSettings()
 settings.set( 
 SynchronousMode=True, 
 SendNonPlayerAgentsInfo=True, 
 NumberOfVehicles=20, 
 NumberOfPedestrians=40, 
 WeatherId=random.choice([1, 3, 7, 8, 14]), 
 QualityLevel=args.quality_level)
 settings.randomize_seeds()

 

除了基本设置外,我们还需要一个RGB Camera,作为我们以驾驶员视角看到的图像,成为我们训练算法中每一个step的状态输入量。

 

# The default camera captures RGB images of the scene.
 camera0 = Camera('CameraRGB')
 # Set image resolution in pixels.
 camera0.set_image_size (800, 600)
 # Set its position relative to the car in meters.
 camera0.set_position (0.30, 0, 1.30)
 settings.add_sensor(camera0)

 

接着我们可以通过加载设置得到一个场景,场景中包含有许多起始点可供选择(根据Town地图选择的不同而不同,0.8.2版本中有Town1和Town2)

 

# Now we load these settings into the server. The server replies
 # with a scene description containing the available start spots for
 # the player. Here we can provide a CarlaSettings object or a
 # CarlaSettings.ini file as string.
 scene = client.load_settings (settings)
 # Choose one player start at random.
 number_of_player_starts = len(scene.player_start_spots)
 player_start = random.randint (0, max(0, number_of_player_starts - 1))

 

通过view_start_positions.py脚本我们可以场景中所有起点的编号和位置

 

 

选择一个起点编号, 我们就可以开始这趟episode

 

# Notify the server that we want to start the episode at the
 # player_start index. This function blocks until the server is ready
 # to start the episode.print ('Starting new episode...')
 client.start_episode (player_start)

 

接下来是这一趟的交互过程

 

for frame in range (0, frames_per_episode):
 measurements, sensor_data = client.read_data()
 print_measurements (measurements)
 
 # Save the images to disk if requested. 
 if args.save_images_to_disk: 
 for name, measurement in sensor_data.items(): 
 filename = args.out_filename_format.format (episode, name, frame) measurement.save_to_disk (filename)

 

在每一帧中,我们首先读取状态数据,measurements包含有汽车的各种测量数据,有车辆的xy坐标,速度,碰撞数据(碰撞强度,单位kg*m/s,包括碰撞车辆,行人,其他物体三种),跑出道比例

 

player_measurements = measurements.player_measurements

 

pos_x= player_measurements.transform.location.x,

 

pos_y= player_measurements.transform.location.y,

 

col_cars= player_measurements.collision_vehicles,

 

col_ped= player_measurements.collision_pedestrians,

 

col_other= player_measurements.collision_other,

 

other_lane=100 * player_measurements .intersection _otherlane,#占其他车道百分比

 

offroad=100 * player_measurements.intersection _offroad,#跑出道路外百分比

 

sensor_data是一个字典,为各种定义的传感器,比如之前建立的RGB Camera,里面包含有图像的矩阵数据,取出方法如下

rgb_image = sensor_data[‘CameraRGB’].data

在读取过状态数据后,我们需要对车辆发送控制指令,Carla支持的控制指令如下

 

 

指令 类型,范围 描述
Steer Float, [-1.0,1.0] 方向盘角度
Throttle Float, [0.0,1.0] 油门
Brake Float, [0.0,1.0] 刹车
Hand Brake Bool, True/False 是否启动手刹
Reverse Bool,True/False 是否要倒挡

 

3.Driving Benchmark

 

在CoRL2017这篇文章里,给出了一个实验benchmark,我们可以在benchmark上跑自己的实验,也可以定制自己的benchmark

 

论文中定义了四种任务,其实都属于导航任务,即给定不一样的起点和终点

 

直行:起点和终点处于一道直线上,无动态物体,在Town1中平均距离为200m,在Town2中平均距离为100m

 

一次转弯:终点距离起点需要一个转弯,无动态物体,在Town1平均距离为400m,在Town2平均距离为170m

 

导航:起点和终点无特殊限制,无动态物体,Town1平均距离为770m,Town2平均距离为360m.

 

具有动态障碍物的导航:与之前任务一致,但是具有动态物体(车辆或行人)

 

在driving_benchmark/ experiment_suites/corl_2017.py给出了详细配置

 

我们学着写出自己的实验配置,程序中则是继承ExperimentSuite类:

 

确定起点和终点:

 

例如我们可以选择起点为140,终点为134,在view_start_position.py脚本中可以可视化其具体位置。

python view_start_positions.py –pos 140,134 –no-labels

 

类似的我们可以定义四个任务

 

# Define the start/end position below as tasks
 poses_task0 = [[7, 3]]
 poses_task1 = [[138, 17]]
 poses_task2 = [[140, 134]]
 poses_task3 = [[140, 134]]
 # Concatenate all the tasks
 poses_tasks = [poses_task0, poses_task1 , poses_task1 , poses_task3]

 

确定车辆数目和行人数目

 

# Add dynamic objects to tasks

 

vehicles_tasks = [0, 0, 0, 20]

 

pedestrians_tasks = [0, 0, 0, 50]

 

配置实验类

 

experiments_vector = []

 

# The used weathers is the union between test and train weathers

 

for weather in used_weathers:

 

for iteration in range(len(poses_tasks)):

 

poses = poses_tasks[iteration]

 

vehicles = vehicles_tasks[iteration]

 

conditions = CarlaSettings()

 

conditions.set(

 

SendNonPlayerAgentsInfo=True,

 

NumberOfVehicles=vehicles,

 

NumberOfPedestrians=pedestrians,

 

WeatherId=weather

 

)

 

# Add all the cameras that were set for this experiments

 

conditions.add_sensor(camera)

 

experiment = Experiment()

 

experiment.set(

 

Conditions=conditions,

 

Poses=poses,

 

Task=iteration,

 

Repetitions=1

 

)

 

experiments_vector.append(experiment)

 

除了之前的设置外,我们还可以配置评价标准,默认设置如下:

 

‘intersection_offroad’: {‘frames_skip’: 10,

 

‘frames_recount’: 20,

 

‘threshold’: 0.3

 

},

 

‘intersection_otherlane’: {‘frames_skip’: 10,

 

‘frames_recount’: 20,

 

‘threshold’: 0.4

 

},

 

‘collision_other’: {‘frames_skip’: 10,

 

‘frames_recount’: 20,

 

‘threshold’: 400

 

},

 

‘collision_vehicles’: {‘frames_skip’: 10,

 

‘frames_recount’: 30,

 

‘threshold’: 400

 

},

 

‘collision_pedestrians’: {‘frames_skip’: 5,

 

‘frames_recount’: 100,

 

‘threshold’: 300

 

},

 

}

 

里面的frame_skip表示了计算违规操作时(碰撞,越道)跳过的帧数,当两帧违规量之差大于threshold这个定义的限制时,则记为一次违规操作,frame_recount则定义了跳过多少帧后再次重新计算违规操作,一般这些保持默认值即可。

 

这些配置都可以在basic_experiment_suite类查看

 

除了实验配置外,我们还要定义自己的智能体,这里我们定义一个只前进的智能体,即油门量设置为0.9。

 

class ForwardAgent(Agent):

 

“””

 

Simple derivation of Agent Class,

 

A trivial agent agent that goes straight

 

“””

 

def run_step (self, measurements, sensor_data, directions, target):

 

control = VehicleControl()

 

return control

 

定义好实验设置和智能体后,启动Carla服务器,直接调用driving_benchmark.py中的run_driving_benchmark函数就可以运行benchmark了。

 

详细代码可以参考benchmark_example.py

 

运行benchmark_example后,我们会发现在当前目录下生成一个实验结果的文件夹,里面大概包含这四个文件

 

 

第一个log文件记录了实验的进行过程,大概类似这样的结果

 

Start Task 0 
 Start Poses (7 3 ) on weather 1 
 Start Task 1 
 Start Poses (138 17 ) on weather 1 
 Start Task 2 
 Start Poses (140 134 ) on weather 1 
 Start Task 3 
 Start Poses (140 134 ) on weather 1 
 ====== Finished Entire Benchmark ======

 

第二个文件measurements.csv记录了每个实验任务每一帧汽车所处的xy位置,以及当时的控制量

 

第四个文件summary.csv记录了每个实验任务的结果

 

 

result=1代表本次任务成功到底终点,每次实验开始会计算起点与终点的距离(欧式距离),实验结束也会计算一次目前距离终点的距离。

 

程序中内置了一个planner规划器,在给定起点和终点后会以A star算法规划一条路径,目的是为了给训练时提供一个高级指令信号(左转,右转,直行),同时也会计算一个超时时间,超过这个时间则算作失败。

 

第三个文件metric.json文件有计算出的’episodes_completion’, ‘intersection_offroad’, ‘intersection_otherlane’, ‘collision_pedestrians’, ‘collision_vehicles’, ‘collision_other’,‘episodes_fully_completed’, ‘average_speed’, ‘driven_kilometers’各种指标值。

 

最终print出训练和测试中各种指标值,类似result

Be First to Comment

发表评论

邮箱地址不会被公开。 必填项已用*标注